Wie viel Automatisierung ist akzeptabel?
Es gibt eine Frage, die in der KI-Debatte selten ernsthaft gestellt wird. Wie viel Automatisierung ist akzeptabel?
Es ist die richtige Frage. Vielleicht die einzige, die wirklich zählt. Nicht ob KI funktioniert. Nicht wie man sie implementiert. Sondern: Wie viel davon wollen wir?
Die Antwort könnte die ganze Diskussion in eine andere Richtung führen. In eine ehrliche Richtung. Eine, in der man anerkennt, dass mehr Technologie nicht automatisch besser ist. Dass es einen Punkt geben könnte, an dem Automatisierung aufhören sollte. Dass die Antwort auf die Frage lauten könnte: weniger als wir denken.
Aber die Antwort, die immer kommt, ist: ein hybrides Modell. Mensch und Maschine zusammen. KI für die Routineaufgaben. Menschen für die wichtigen Entscheidungen. Die Balance finden. Den Sweet Spot. Die richtige Mischung.
Das klingt vernünftig. Es klingt ausgewogen. Es klingt nach einem Kompromiss, dem jeder zustimmen kann.
Es beantwortet die Frage nicht.
Ein hybrides Modell sagt nicht, wie viel Automatisierung akzeptabel ist. Es sagt: irgendwo dazwischen. Es verschiebt die Entscheidung von der Grundsatzebene auf die Implementierungsebene. Nicht ob, sondern wie. Nicht wie viel, sondern welche Mischung. Die Frage nach dem Limit wird ersetzt durch die Frage nach der Konfiguration.
Ich habe in Projekten gearbeitet, in denen hybrid immer der Anfang war. Zuerst ersetzt die Maschine nur die langweiligen Aufgaben. Dann die repetitiven. Dann die, die sowieso keiner machen will. Und irgendwann ist hybrid nur noch ein anderes Wort für automatisiert, mit einem Menschen, der gelegentlich auf einen Button drückt.
Die Richtung ist immer dieselbe: mehr Automatisierung. Nie weniger. Kein Unternehmen implementiert ein hybrides Modell und entscheidet sich dann für weniger Maschine und mehr Mensch. Die ökonomische Logik zieht in eine Richtung. Hybrid ist die Übergangsphase, nicht das Ziel.
Das weiß jeder, der in dieser Branche arbeitet. Die Idee, dass der Prozess irgendwo stehen bleibt, an einem ausgewogenen Punkt, an dem Mensch und Maschine gleichberechtigt zusammenarbeiten, widerspricht allem, was die Geschichte der Automatisierung zeigt.
Was mich an dieser Antwort stört, ist nicht die Antwort selbst. Es ist das, was nicht vorkommt. Die Möglichkeit, dass die Antwort weniger ist. Dass akzeptabel nicht mehr Automatisierung mit menschlicher Aufsicht bedeutet, sondern weniger Automatisierung, weil bestimmte Dinge nicht automatisiert werden sollten.
Diese Möglichkeit existiert in der Debatte nicht. Nicht als Argument, nicht als Gegenposition, nicht einmal als Frage. Die Diskussion kennt nur eine Richtung: mehr. Die Frage wie viel wird beantwortet mit auf welche Weise, und die Richtung steht fest.
Nehmen wir Kundenservice. Die KI bearbeitet die einfachen Anfragen. Bei komplexen Fällen übernimmt ein Mensch. Hybrid. Klingt gut. Aber was passiert, wenn die KI besser wird? Was passiert, wenn sie auch die komplexen Fälle bearbeiten kann? Wird der Mensch dann wieder eingesetzt, aus Prinzip? Oder wird er wegrationalisiert, weil die Maschine billiger ist?
Die Frage beantwortet sich selbst. Und niemand stellt sie.
Wie viel Automatisierung ist akzeptabel? Die ehrliche Antwort wäre: Das wissen wir nicht. Wir haben keine Kriterien dafür. Wir haben kein Framework, das sagt: Hier ist die Grenze, dahinter sollte ein Mensch stehen, nicht weil die Maschine es nicht kann, sondern weil es nicht richtig wäre.
Diese Antwort gibt niemand. Stattdessen heißt es: hybrid. Und hybrid ist das Wort, das man benutzt, wenn man die Frage nicht beantworten will.