Deine schlechte Laune als Datenpunkt

Ich hatte einen schlechten Tag. Nichts Besonderes, nichts Dramatisches. Einer dieser Tage, an denen man müde aufwacht und müde bleibt. Abends saß ich auf dem Sofa und scrollte durch ein Angebot nach dem anderen. Ich habe nichts gekauft. Aber ich habe länger gesucht als sonst. Ich habe Sachen angeschaut, die ich an einem normalen Tag ignoriert hätte. Ich war empfänglicher.

Das weiss der Algorithmus.

KI erkennt emotionale Zustände und reagiert darauf. Nicht in der Zukunft. Jetzt. Sprachmuster, Tippgeschwindigkeit, Scroll-Verhalten, Gesichtsausdruck vor der Kamera, Zeitpunkt der Nutzung. Alles zusammen ergibt ein Bild. Die Branche nennt es “Präzision und Kontext”. Sie feiert es als Fortschritt in der Kundenansprache.

Es gibt Momente im Leben, in denen man verletzlich ist. Eine Trennung, ein Verlust, eine schlaflose Nacht, ein Streit, der nicht gelöst ist. In diesen Momenten trifft man andere Entscheidungen. Man kauft Dinge, die man nicht braucht. Man klickt auf Sachen, die man normalerweise übersieht. Man sucht nach etwas, das sich wie Trost anfühlt.

Das ist menschlich. Es ist auch ein verwundbarer Zustand. Und die Technologie ist darauf ausgelegt, diesen Zustand zu erkennen und zu nutzen.

Nicht nutzen im Sinne von: helfen. Nutzen im Sinne von: monetarisieren. Der Unterschied ist entscheidend. Ein Freund, der merkt, dass es dir schlecht geht und fragt, ob er helfen kann, nutzt emotionale Wahrnehmung für dich. Ein System, das merkt, dass es dir schlecht geht und dir ein Angebot zeigt, nutzt sie gegen dich. Die Wahrnehmung ist dieselbe. Die Absicht nicht.

Die Industrie unterscheidet nicht. Für sie ist es dasselbe. Sie redet von “empathischer KI”, die auf den Gemütszustand des Kunden reagiert. Empathie. Das Wort steht da, in Whitepapers und Keynotes. Eine Maschine, die deine schlechte Laune erkennt und dir ein Produkt zeigt, das dazu passt, ist empathisch. So wird es verkauft.

Empathie bedeutet Mitgefühl. Es bedeutet, den Zustand eines anderen zu fühlen und darauf zu reagieren in seinem Interesse. Was hier passiert, ist das Gegenteil. Es ist die Fähigkeit, den Zustand eines anderen zu lesen und im eigenen Interesse zu handeln. Das ist keine Empathie. Das ist Exploitation. Aber Exploitation steht nicht gut auf einer Folie.

Ich denke an konkrete Situationen. Ein Mensch, der gerade eine Scheidung durchmacht und nachts nicht schlafen kann. Er scrollt. Das System registriert die Uhrzeit, das Verhalten, die Verweilzeit. Es erkennt: verletzlich. Es zeigt: ein Angebot. Vielleicht eine Reise. Vielleicht ein Abo. Vielleicht einen Kurs. Irgendetwas, das Trost verspricht. Der Mensch klickt. Conversion.

An einem anderen Tag hätte er nicht geklickt. An einem Tag, an dem er ausgeschlafen und klar war, hätte er weitergerollt. Aber das System hat den richtigen Moment erkannt. Und der richtige Moment ist der verwundbare Moment.

Die Zukunft des Marketings sei “kontextsensitiv”, heisst es. Kontext bedeutet: das System weiss nicht nur was du willst, sondern wie du dich gerade fühlst. Es kennt nicht nur deine Präferenzen. Es kennt deinen Zustand. Und es handelt danach.

Wer kontrolliert, welche Zustände kommerziell nutzbar sind und welche nicht? Niemand redet darüber. Es gibt keine Grenze. Keine Zeile in irgendeinem Ethikkodex, die sagt: Trauer ist kein Datenpunkt. Einsamkeit ist kein Conversion-Fenster. Angst ist kein Targeting-Kriterium.

Alles ist Daten. Jeder Moment ist ein Moment, in dem man verkaufen kann.

Ich frage mich, wie die Leute, die das bauen, es abends ihren Kindern erklären. Papa hat heute daran gearbeitet, wie Maschinen traurige Menschen erkennen und ihnen etwas verkaufen. Vielleicht ist die Antwort: So ist es nicht gemeint. Vielleicht ist die Antwort: Niemand hat so weit gedacht. Vielleicht ist die Antwort: Doch, genau so.