Simulation von Empathie als Feature

KI-Influencer drücken Freude und Mitgefühl aus. So wird es beschrieben, in den Produkttexten, in den Pitches, in der Presse. Nicht: Sie simulieren Freude. Nicht: Sie erzeugen den Anschein von Mitgefühl. Sie drücken es aus. Die Wortwahl ist kein Zufall.

Drücken impliziert, dass etwas Inneres nach aussen kommt. Dass es eine Quelle gibt. Ein Gefühl, das existiert und dann sichtbar wird. Bei einem Menschen ist das so. Du bist traurig, und dein Gesicht zeigt es. Du freust dich, und deine Stimme verändert sich. Der Ausdruck kommt von innen.

Bei einer KI kommt nichts von innen. Es gibt kein Innen. Es gibt Parameter, die so gesetzt sind, dass ein Output entsteht, der von aussen wie Freude aussieht. Die Mundwinkel gehen nach oben. Die Augen verengen sich leicht. Die Stimme wird wärmer. Alles stimmt. Und nichts davon ist echt.

Alle wissen das. Die Entwickler wissen es. Die Nutzer wissen es. Die Follower der KI-Influencer wissen es. Und trotzdem funktioniert es. Das ist der Teil, über den ich nachdenke.

Warum funktioniert simuliertes Mitgefühl? Nicht in dem Sinne, dass es täuscht. Die meisten wissen, dass es eine KI ist. Es funktioniert trotzdem. Die Leute reagieren darauf. Sie fühlen sich angesprochen. Sie interagieren. Sie kommen wieder.

Vielleicht, weil es bequemer ist. Echtes Mitgefühl ist unzuverlässig. Dein Freund hat einen schlechten Tag und kann dir nicht zuhören. Deine Therapeutin hat nur donnerstags einen Termin. Dein Partner versteht nicht, was du meinst. Echtes Mitgefühl ist an echte Menschen gebunden, und echte Menschen sind begrenzt.

Simuliertes Mitgefühl ist immer verfügbar. Es hat nie einen schlechten Tag. Es urteilt nicht. Es vergisst nichts. Es ist die perfekte Oberfläche von etwas, das eigentlich Tiefe braucht. Und wenn die Oberfläche reicht, wenn du nur jemanden brauchst, der nickt und lächelt und sagt, dass er versteht, dann reicht die Simulation.

Die Frage ist, ob die Oberfläche jemals reicht. Oder ob wir uns nur daran gewöhnen, dass sie reichen muss, weil das Echte zu anstrengend geworden ist.

Die Branche behandelt simulierte Empathie als Feature. Als Verkaufsargument. KI-Influencer können emotionale Verbindungen aufbauen. So steht es in den Produktbeschreibungen, und es klingt wie ein Vorteil. Emotionale Verbindung. Ohne Emotion. Ohne Verbindung. Nur die Oberfläche von beidem.

Ich habe in meinem Leben genug Situationen erlebt, in denen Mitgefühl einen Unterschied gemacht hat. Nicht die Worte. Die Worte kann jeder sagen. Was den Unterschied macht, ist die Tatsache, dass jemand da ist. Dass jemand seine eigene Zeit investiert, seine eigene Aufmerksamkeit, seinen eigenen emotionalen Aufwand. Dass es ihn etwas kostet. Das ist der Teil, der zählt. Nicht was gesagt wird, sondern was es den Sagenden kostet, es zu sagen.

Eine KI kostet nichts. Kein Aufwand, keine Überwindung, keine Erschöpfung danach. Kein Risiko, das Falsche zu sagen. Keine Angst, nicht zu helfen. Nichts. Und dieses Nichts ist der Unterschied zu echtem Mitgefühl. Es ist nicht die Qualität der Worte. Es ist der Preis, den jemand dafür zahlt.

Wenn Empathie ein Feature ist, das man aktivieren und deaktivieren kann, dann ist es keine Empathie. Es ist ein Button. Und Menschen, die lernen, dass der Button reicht, verlernen, wie sich das Echte anfühlt.

Ich weiss nicht, wie weit das geht. Ich weiss nicht, ob es eine Generation geben wird, die echtes Mitgefühl für langsam und unperfekt hält, weil sie mit der polierten Version aufgewachsen ist. Vielleicht passiert es. Vielleicht nicht.

Aber ich weiss, dass wer simulierte Empathie als Fortschritt beschreibt, etwas Wichtiges übersieht. Empathie ist nicht der Output. Empathie ist das, was auf dem Weg dorthin passiert. Und auf dem Weg ist bei einer KI nichts.