Manipulationsgefahr als Unterpunkt
In den meisten Texten über KI im Marketing gibt es irgendwo einen Abschnitt über Risiken. Er steht zwischen den Abschnitten über Monetarisierung und Skalierung. Darin geht es um Manipulationsgefahr, psychologische Auswirkungen, ethische Bedenken. Es sind vielleicht dreißig Zeilen. Im Verhältnis zum restlichen Text ist das ungefähr so viel Platz, wie man einem bekannten Bug in einem Release-Notes-Dokument gibt.
Das ist kein Zufall. Es ist die Art, wie die KI-Branche über Moral denkt.
Moralische Fragen werden behandelt wie technische Probleme. Es gibt ein Issue. Es wird geloggt. Es bekommt eine Priorität. Jemand schreibt einen Fix. In der nächsten Version ist es besser. Das funktioniert bei Software. Bei moralischen Fragen funktioniert es nicht.
Die Manipulationsgefahr, die dabei beschrieben wird, ist keine, die man patchen kann. Sie ist kein Bug im System. Sie ist das System. Wenn du eine KI baust, die Menschen beeinflusst, ist Manipulation kein Fehler, der manchmal auftritt. Es ist die Kernfunktion, die manchmal zu weit geht.
Aber die Branche rahmt es anders. Sie listet Risiken auf, wie man Spezifikationen listet. Manipulationsgefahr. Punkt. Geringes Selbstwertgefühl. Punkt. Unrealistische Erwartungen. Punkt. Dann kommen Vorschläge: Transparenz, Regulierung, Aufklärung. Und dann geht es weiter zum nächsten Abschnitt.
Ich habe in meiner Arbeit oft genug erlebt, wie Risikobewertungen funktionieren. Du schreibst die Risiken auf. Du bewertest sie. Du ordnest Maßnahmen zu. Und dann hakst du sie ab. Das Risiko ist dokumentiert, also ist es gemanagt. Nicht gelöst. Gemanagt. Das reicht.
Bei einer Software, die abstürzt, reicht das vielleicht. Bei einer Technologie, die das Selbstbild junger Menschen beeinflusst, reicht es nicht. Aber die Leute, die diese Systeme bauen, verwenden dasselbe Framework. Sie kommen aus der Tech-Welt, und in der Tech-Welt gibt es für jedes Problem eine Lösung. Wenn die Lösung noch nicht existiert, existiert sie bald. In der Zwischenzeit dokumentiert man das Problem und macht weiter.
Ethik als Checkliste. Transparenz als Feature. Regulierung als Roadmap-Item.
Was fehlt, ist die Möglichkeit, dass es keine Lösung gibt. Dass manche Probleme nicht durch bessere Technologie gelöst werden, sondern nur durch die Entscheidung, etwas nicht zu tun. Diese Möglichkeit existiert in diesem Denken nicht. Für jedes Problem gibt es einen nächsten Schritt. Die Idee, dass der nächste Schritt Stillstand sein könnte, kommt nicht vor.
Ich denke an ein Gespräch, das ich vor Jahren mit einem Ingenieur geführt habe. Es ging um ein Produkt, das technisch möglich war, aber fragwürdig. Er sagte: Wenn wir es nicht bauen, baut es jemand anders. Also können wir es besser bauen als die anderen. Das Argument klingt pragmatisch. In Wahrheit ist es eine Abdankung. Es sagt: Ich bin nicht verantwortlich für das, was ich baue, weil jemand anders es auch bauen würde.
Die Branche argumentiert genauso. Die Risiken sind da, aber die Technologie kommt sowieso. Also besser gestalten als ignorieren. Das klingt vernünftig. Es klingt sogar verantwortungsvoll. Aber es setzt voraus, dass Gestalten reicht. Dass man eine Technologie, deren Kernfunktion Beeinflussung ist, so gestalten kann, dass die Beeinflussung nur gute Ergebnisse hat.
Ich kenne keine Technologie, bei der das jemals funktioniert hat.
Das Problem ist nicht, dass die Risiken verschwiegen werden. Sie stehen in den Texten. Das Problem ist die Architektur der Texte. Die Risiken sind ein Unterpunkt. Die Chancen sind das Hauptthema. Die Gewichtung sagt mehr als die Worte. Sie sagt: Das Geschäft ist das Thema, die Moral ist die Fussnote.
Wenn du Manipulationsgefahr in dreißig Zeilen abhandelst und Monetarisierung in dreißig Seiten, dann hast du eine Entscheidung getroffen. Nicht mit Worten. Mit Proportionen. Und Proportionen lügen nicht.