Echt war schon fake, also ist komplett fake nur konsequent

Die Argumentation für KI-Influencer geht immer gleich. Menschliche Influencer inszenieren sich ohnehin. Sie zeigen ein Leben, das so nicht existiert. Also ist der Schritt zu komplett generierten Influencern nur logisch.

Ich habe diese Argumentation inzwischen oft gehört. Sie klingt schlüssig. Sie hat die Form eines guten Arguments. Aber sie normalisiert etwas, das nicht normal ist, indem sie es als Fortsetzung von etwas beschreibt, das schon akzeptiert wurde.

Das Muster funktioniert so: Schritt eins ist problematisch, wird aber toleriert. Also wird Schritt zwei, der weiter geht, als logische Konsequenz von Schritt eins präsentiert. Die Toleranz, die für Schritt eins gilt, wird auf Schritt zwei übertragen. Und plötzlich ist etwas normal, das vor kurzem noch undenkbar war.

Der Trick: Schritt 1 wird toleriert, Schritt 2 als konsequent verkauft. Das Ergebnis ist Normalisierung.

Influencer inszenieren sich. Das stimmt. Aber ein Mensch, der sein Leben inszeniert, ist immer noch ein Mensch. Er hat ein Leben ausserhalb des Bildes. Er trifft Entscheidungen. Er wacht morgens auf und entscheidet, was er zeigt und was nicht. Die Inszenierung ist real, auch wenn das Gezeigte es nicht ist. Da ist jemand.

Bei einem KI-Influencer ist niemand da. Da ist ein Algorithmus, der ein Gesicht generiert, das kein Gesicht ist. Eine Geschichte erzählt, die keine Geschichte hat. Emotionen zeigt, die keine Emotionen sind. Nicht inszenierte Emotionen, wie bei einem menschlichen Influencer. Sondern berechnete Signale, die Emotionen simulieren.

Der Unterschied ist nicht graduell. Er ist fundamental. Aber er wird als graduell behandelt. Und genau da liegt die Verschiebung.

Wenn echt schon fake war, dann ist komplett fake nur konsequent. Das ist keine Analyse. Das ist eine Normalisierung. Sie sagt: Die Grenze war sowieso schon überschritten. Also spielt es keine Rolle, ob wir noch weiter gehen.

Ich kenne dieses Argument aus anderen Kontexten. Die Nachrichten waren sowieso schon verzerrt, also spielen Fake News keine Rolle. Politiker haben sowieso schon gelogen, also macht ein komplett erfundener Lebenslauf keinen Unterschied. Die Luft war sowieso schon verschmutzt, also ist ein bisschen mehr egal.

Es ist immer die gleiche Struktur. Ein bestehendes Problem wird benutzt, um ein grösseres Problem zu rechtfertigen. Und wer widerspricht, wird als naiv hingestellt. Komm schon. Das war doch vorher schon so.

Ja. Vorher war es schon problematisch. Und das Neue macht es nicht weniger problematisch, sondern mehr. Aber wenn du den ersten Schritt akzeptiert hast, ohne ihn zu hinterfragen, fehlt dir die Grundlage, den zweiten abzulehnen. Das ist der Trick. Nicht der bewusste Trick. Der strukturelle. Er passiert, ohne dass jemand ihn plant.

KI-Influencer werden als Geschäftsmodell beschrieben. Als Innovation. Als nächste Stufe. Die Frage, ob die Stufe in eine Richtung führt, in die wir wollen, wird nicht gestellt. Weil in dieser Logik nur zählt, dass es funktioniert. Dass es Reichweite erzeugt. Dass jemand Geld damit verdient.

Aber es geht nicht nur um Influencer. Das Argument gilt überall. Wenn menschlicher Kundensupport schon schlecht war, ist automatisierter nicht schlimmer. Wenn politische Reden schon hohl waren, macht es keinen Unterschied, ob eine KI sie schreibt. Wenn Bewerbungsgespräche schon Inszenierung waren, kann man sie auch gleich von Algorithmen führen lassen.

Jedes Mal verschiebt sich etwas. Nicht viel. Gerade genug, dass es logisch klingt. Und irgendwann stehst du an einem Punkt, an dem nichts mehr echt ist, und jemand sagt: War es doch vorher schon nicht.

Die Frage ist nicht, ob es vorher echt war. Die Frage ist, ob wir aufgehört haben, es zu versuchen.