Perfektion als Vertrauenskiller

Ich scrolle durch den Instagram-Feed einer KI-Influencerin, die als Erfolgsbeispiel gilt. Das Gesicht ist symmetrisch. Die Haut ist makellos. Die Beleuchtung stimmt immer. Jedes Bild sieht aus wie das Cover eines Magazins, das es nicht gibt. Und nach dem dritten Bild scrolle ich weiter, weil mir langweilig ist.

Die Befürworter dieser Technologie beschreiben ausführlich, warum perfekte KI-Influencer funktionieren. Kontrolle über jeden Pixel. Keine schlechten Tage, keine unvorteilhaften Winkel, keine Peinlichkeiten. Das perfekte Produkt für die perfekte Kampagne. Es werden seitenlang die Vorteile beschrieben.

Dann kommt irgendwo ein Absatz, fast beiläufig, in dem steht, dass diese Perfektion abschreckend wirken kann. Die Leute vertrauen dem Makellosen nicht. Sie finden es unheimlich.

Ich lese solche Absätze immer zweimal. Weil die Leute, die sie schreiben, nicht merken, dass sie gerade ihrem eigenen Argument widersprechen. Oder sie merken es und hoffen, dass der Leser den Widerspruch überliest.

Perfektion erzeugt kein Vertrauen. Das weiß jeder, der schon mal einem zu glatten Verkäufer gegenübergesessen hat. Dem Typen, bei dem jeder Satz sitzt, jedes Lächeln getimt ist, jede Antwort vorbereitet klingt. Du kaufst vielleicht trotzdem. Aber du vertraust ihm nicht. Du weißt, dass etwas fehlt. Du weißt nur nicht was.

Was fehlt, ist der Fehler. Der Moment, in dem jemand stolpert, sich korrigiert, lacht, weil ihm etwas Peinliches passiert ist. Der Moment, der zeigt: Da ist ein Mensch. Nicht eine Oberfläche.

Vertrauen entsteht nicht durch Kompetenz allein. Vertrauen entsteht, wenn Kompetenz und Verletzlichkeit zusammenkommen. Wenn du siehst, dass jemand gut ist in dem, was er tut, und gleichzeitig Fehler machen kann. Dass er nicht perfekt ist. Dass er es auch nicht versucht zu sein.

Bei einer KI gibt es keine Verletzlichkeit. Es gibt nur Parameter. Und wenn jemand entscheidet, dass die KI Fehler machen soll, damit sie menschlicher wirkt, dann sind die Fehler geplant. Ein geplanter Fehler ist kein Fehler. Er ist ein weiteres Feature.

Die vorgeschlagene Lösung: Absichtliche Imperfektionen einbauen, damit die KI-Influencer weniger unheimlich wirken. Ein Pickel hier. Ein unscharfes Foto dort. Eine kleine Unregelmäßigkeit, die sagt: Schau, ich bin wie du.

Aber du bist nicht wie ich. Du bist eine Berechnung, die so tut, als wäre sie wie ich. Und der simulierte Makel ist schlimmer als die Perfektion. Weil er die letzte ehrliche Eigenschaft der KI beseitigt: dass sie offensichtlich künstlich ist.

Ein perfekter KI-Influencer ist wenigstens ehrlich in seiner Künstlichkeit. Du siehst ihn und weißt: Das ist nicht echt. Das ist klar. Das kannst du einordnen. Ein KI-Influencer mit eingebauten Fehlern täuscht Echtheit vor. Er lügt über das Einzige, was ihn als KI erkennbar macht.

Das Dilemma wird selten benannt. Perfektion funktioniert als Produkt, aber nicht als Beziehung. Sie verkauft, aber sie verbindet nicht. Und Influencer sollen verbinden. Das ist ihr Geschäftsmodell. Reichweite durch Bindung.

Also muss die KI imperfekt werden. Aber simulierte Imperfektion ist keine Imperfektion. Sie ist eine weitere Schicht der Täuschung. Das Problem wird nicht gelöst. Es wird verschoben.

Ich denke an Menschen, denen ich vertraue. In jedem Fall hat das Vertrauen mit etwas zu tun, das die Person nicht kontrollieren konnte. Ein ehrlicher Moment. Eine Reaktion, die nicht geplant war. Ein Fehler, den sie zugegeben hat, obwohl sie es nicht musste. Vertrauen ist das, was passiert, wenn die Kontrolle aufhört.

Bei einer KI hört die Kontrolle nie auf. Jeder Output ist kontrolliert. Jeder Fehler ist entweder ein Bug oder ein Feature. Es gibt keinen Raum dazwischen. Und in diesem Raum dazwischen entsteht Vertrauen.

Eine Technologie, die alles kontrollieren kann. Und totale Kontrolle zerstört das Vertrauen. Die Lösung ist nicht mehr Kontrolle. Aber weniger Kontrolle ist kein Geschäftsmodell. Also bleibt der Widerspruch stehen, ungelöst, und die meisten Leute werden ihn überlesen.