Ontologie und Agentic AI folgen den gleichen Prinzipien, liefern aber andere Ergebnisse
Ontologie ist die Lehre davon, was es gibt und wie es zusammenhängt. In der Informatik wird sie dann etwas konkreter, vor allem, wenn künstliche Intelligenz dazu kommt. Dann entsteht eine formale Darstellung von Konzepten und deren Beziehungen zueinander. Die Fragen, die es zu beantworten gilt, sind: Welche Informationen und Daten stehen zur Verfügung, wie hängen diese zusammen und welche Schlussfolgerungen können wir daraus ziehen?
Nach vielen Jahren Entwicklung von Wissenssystemen und mithilfe von KI ist die Präzision der Abfragen und der daraus folgende Nutzwert beachtlich gestiegen. Und damit ergeben sich ganz neue Möglichkeiten.
Was ich generell mache, ist angewandte Ontologie. Ich entwickle eine Struktur und benutze sie als System, um aus Daten systematisch zu einem Ergebnis zu kommen. Nicht Wissen ordnen um des Ordnens willen und noch ein weiteres Wiki schaffen, sondern Wissen so ordnen, dass man daraus möglichst direkt Entscheidungen ableiten kann. Was sich zunächst wie eine nuancierte Verschiebung liest, verändert alles. Aus einer Beschreibung von dem, was existiert, wird ein echtes Werkzeug. Moderne Chips und Rechner-Infrastrukturen verstärken alles zusätzlich.
Fünf Prinzipien
Bei der Verbindung eines KI-Agentensystems mit ontologischen Strukturen wurde meine Prinzipienfrage gleich mitbeantwortet: Die Prinzipien bei der herkömmlichen Auswertung wissenschaftlicher Studien mittels Ontologie und die Prinzipien hinter Agentic AI sind meines Erachtens die gleichen.
Zerlegung. Ein komplexes Problem in Teile zerlegen. Ich habe viele Jahre US-Firmen beraten, die nach Europa expandieren wollten. Dabei ist nicht eine Entscheidung zu treffen, sondern zwanzig. Und die hängen alle miteinander zusammen. Regulierungen, Vertriebskanäle, Preisstrukturen, Logistikketten, Zielgruppen, Sprachen, Wettbewerb, Produktvarianten. Jedes Thema ist für sich lösbar, zusammen ergeben sie ein System. Ein KI-Agent macht das Gleiche: Er nimmt eine Aufgabe, zerlegt sie in Schritte und arbeitet diese parallel ab.
Beziehungen. Verstehen, wie die Teile zusammenhängen. Regulierung beeinflusst die Preisstruktur, die bestimmt, welche Vertriebskanäle realistisch sind, was wiederum direkten Einfluss auf die Produkt-Zielgruppen-Matrizen hat. Und je nach Zielgruppen und Produkt-Zuordnungen sieht die taktische Marketing-Umsetzung komplett anders aus. Wenn ich diese Zusammenhänge ontologisch abbilde, um sie verständlich zu machen, müssen diese Beziehungen explizit definiert sein. Ein Agent erkennt diese auch, aber er definiert sie nicht. Er findet sie und arbeitet sie ab.
Abhängigkeiten. Wissen, was vor was kommen muss und was daraus folgt. Man kann keine Preisstrategie machen, bevor man die Märkte in- und auswendig versteht. Und keine Marketingplanung ist effektiv umsetzbar, bevor man die Zielgruppe zu 100% verstanden hat. Die Reihenfolge ist also nicht optional, sondern essentiell. In einer Ontologie ist die Reihenfolge immer zwingend eingebaut und in der Regel recht starr. KI-Agentensysteme entscheiden die Reihenfolgen oft selbst während der Arbeit und erscheinen dadurch etwas flexibler.
Kontext. Ergebnisse hängen von Bedingungen ab. Was in Frankreich funktioniert, funktioniert nicht automatisch in Deutschland. Marketer kennen das und beißen sich daran auch nicht mehr die Zähne aus, weil mittlerweile jeder erkennt, dass diese zwei vollkommen autark voneinander funktionierenden Märkte zwei komplett unterschiedliche Marketing-Ansätze benötigen. Doch Vorsicht: Was für ein Konsumprodukt gilt, gilt nicht für Medizintechnik. Ich hatte mal für den Konzern 3M ESPE ein Schulungssystem für Zahnfüllstoffe entwickelt und lernte schon sehr früh, dass Ontologie den Kontext am besten als komplett eigenständige Ebene abbildet. Eine interessante Eigenschaft von KI-Agenten ist das Erlernen von (meist richtigen) Kontexten aus den Daten, die man ihnen gibt.
Nachvollziehbarkeit. Wissen, woher eine Entscheidung kommt. Warum empfehle ich Direktvertrieb statt Einzelhandel? Am Beispiel des amerikanischen Lifestyle-Schmuckherstellers QALO waren die Margen in diesem Segment ohnehin schon recht gering für stationären Handel und die Zielgruppe wurde aufgrund der hochskalierten Individualisierung (Gravur von Kunststoffringen) in Richtung Onlinekauf erzogen. In der damaligen ontologischen Wertschöpfungskette wurde das schnell sichtbar. Als ich das Experiment später mit KI-Agenten wiederholte, war das nicht direkt klar. Der Weg ist trotz der Dynamik dahinter transparent und man kann jeden Schritt nachverfolgen. Aber bei komplexen Entscheidungsketten artete es in zu viel Trial-and-Error aus und es verging schlichtweg zu viel Zeit, um Entscheidungen zu treffen. Für einfache Darstellungen kommt man schnell ans Ziel. Für alles darüber hinaus noch nicht. Nimmt man die Geschwindigkeit, mit der sich Agentic AI entwickelt, wird das vielleicht nicht mehr lange so bleiben.
Das ungelöste Spannungsfeld
Die Prinzipien sind die gleichen. Aber die Ergebnisse sind es eben nicht.
Ein gut durchdachtes ontologisches Modell funktioniert. Ich weiss, warum das Ergebnis so rauskommt und nicht anders, ich kann es jemandem erklären und der versteht es. Wenn sich etwas ändert, weiss ich, wo ich korrigieren muss. Es folgt meinem Plan. Und deshalb ist es nachvollziehbar.
Agenten machen meistens, was sie wollen. Außer man packt sie in ein starres Konzept, aber dann ist es schon nicht mehr Agentic AI. Das klingt schräg, ist aber meine Erfahrung nach zahllosen Trial-and-Error-Versuchen. Ich arbeite jeden Tag mit KI-Agenten und das Ergebnis wird besser, manchmal deutlich besser, als das, was ich selbst entwickelt hätte. Aber es folgt keinem vorgegebenen Plan. Der Agent findet seinen eigenen Weg, und ich verstehe nicht immer, warum ausgerechnet diesen. Doch wie gesagt, die Algorithmen entwickeln sich und wahrscheinlich ist es nur noch eine Frage der Zeit.
Die Stärken von KI-Agenten sind klar: Der Agent sieht Verbindungen, die ich übersehe und probiert Wege aus, an die ich nicht gedacht hätte. Er ist schneller als ich und hat kein Problem damit, zwanzig Varianten durchzurechnen, bevor er sich entscheidet.
Das Problem: Ich kann das Ergebnis nicht immer erklären. Und wenn ich es nicht erklären kann, kann ich es nicht verkaufen. Weil der Unsicherheitsfaktor einfach zu groß ist. Und Unternehmen brauchen umso mehr Sicherheit in ihrer internen Planungsstruktur, je unsicherer die Märkte sind.
Was ist nun besser?
Der Haken ist die Frage selbst. Denn es geht gar nicht um besser oder schlechter. Sondern vielmehr darum, was man kontrollieren kann und was nicht.
Meine Ontologie kontrolliere ich selbst und kann beliebige Anpassungen vornehmen, wenn das Team und ich es für sinnvoll oder notwendig erachten. Ich habe sie gebaut, kenne jede Verbindung darin und weiss, wo sie stark ist und wo sie Lücken hat. Wenn etwas schief geht, weiss ich, wo ich suchen muss.
Agenten kontrolliere ich nicht. Ich kann ihnen Kontext und Leitplanken geben. Aber was sie daraus machen, ist jedes Mal anders. Die Agenten sind an der Stelle kein Team mehr, sondern wirken vielmehr wie ein Haufen unkontrollierter Egomanen, die sich zugunsten des besten Ergebnisses mit aller Gewalt durchsetzen müssen. Das klingt jetzt unfair und trifft auch nicht den Kern, aber wenn man einem KI-Agentensystem live bei der Arbeit zusieht, dann ist das nicht nur mein Eindruck. Aber Fakt ist: Es produziert keine perfekten Ergebnisse. Im Gegenteil, vollautomatisiert geht hier mindestens genauso viel schief.
Die richtige Frage müsste also sein: Wann liefert Agentic AI ein perfektes ontologisches Modell? Wann baut der Agent die Struktur, die ich heute von Hand baue, selbst? Schneller und vielleicht besser? Ich arbeite jeden Tag mit KI und habe noch keine Antwort, die mich überzeugt. Denn KI-Agenten agieren noch zu wild. Die Aufgabe der Entwickler wäre also, die Algorithmen zu zähmen.
Wie meine Texte entstehen, steht hier.