In den Medien wird seit einiger Zeit der Begriff Künstliche Intelligenz mit KI-Sprachmodellen wie ChatGPT, Google Gemini und Co gleichgesetzt. In Wirklichkeit sind diese Sprachmodelle (Large Language Model, LLM) aber nur ein kleiner Teil dessen, was in der IT unter Künstlicher Intelligenz verstanden wird.

Tatsächlich gliedert sich die Künstliche Intelligenz in verschiedene Bereiche:
- Maschinelles Lernen (Machine Learning): auf Basis von bestehenden Inhalten werden Modell darin trainiert, die Inhalte zu erkennen bzw. zu erstellen. Die Sprachmodelle sind ein kleiner Teil dieses Bereichs, das auf Sprachverständnis und Sprachsynthese trainiert wurde. Aufgrund dieses Trainings und der statistischen Natur der Funktionsweise können diese Modelle immer Fehler machen.
- Regelbasierte Künstliche Intelligenz: Regeln und existierendes Wissen werden genutzt, um Entscheidungen zu treffen und Prozesse zu steuern. Diese Modelle sind, sofern keine Lücke in den Regeln oder im Wissen betroffen ist, fehlerfrei im jeweiligen Anwendungsbereich.
- Robotik & Autonome Systeme: Hier bekommt die physische Welt Relevanz. Diese Systeme interagieren mit der Realität und haben daher insb. auch Sensorik und Aktorik zur Verfügung, um die Umgebung wahrzunehmen und mit ihr zu interagieren. Diese Systeme sind für Teilaufgaben stark mit den anderen beiden Bereichen verknüpft.
Warum sind Sprachmodelle fehleranfällig?
Diese Unterschiede zu kennen ist tatsächlich sehr wichtig. Wenn der „KI“ in den Medien gewisse Eigenschaften zugewiesen werden, gelten diese eben nicht zwingend für jede der oben genannten Kategorien. Insbesondere die Fehleranfälligkeit und die sogenannten Halluzinationen sind eine Eigenschaft der Sprachmodelle, die man z.B. auf die regelbasierte KI nicht übertragen kann.
Wichtig ist dies auch, weil jedes System, das auf einem Sprachmodell aufbaut, diese Fehleranfälligkeit mit übernimmt. Aus diesem Grund gibt es Prozesse, die nie mit einem Sprachmodell abgebildet werden sollten. Das sind insbesondere Prozesse, in denen keine Fehler passieren sollen oder dürfen.
KI-Sprachmodelle sollten nur dort zum Einsatz kommen, wo auch menschliche Fehler toleriert werden.
Künstliche Intelligenz – hier bitte keine LLMs!
Dementsprechend sind Prozesse wie Rechnungslegung oder Gehaltsabrechnung nicht dazu geeignet, sie mit Sprachmodellen zu verbessern. Insbesondere beim häufigen Ablauf eines solches Prozesses ist es nahezu sicher, dass ein Fehler passieren wird. Zusätzlich kritisch ist hier, dass Sprachmodelle eben auf Sprache trainiert sind, d.h. sie können auch nur Sprache gut handhaben. Sobald diese Modelle mit Zahlen zu tun haben, wird es in der Regel problematisch. Nicht umsonst ist einer der klassischen Tests für Sprachmodelle, sie danach zu fragen, wie viele „r“ in „Strawberry“ (Erdbeere) sind. In der Regel schaffen es Sprachmodelle nur, das richtig zu beantworten, wenn die Frage im Hintergrund als Test erkannt und mit der hinterlegten, richtigen Antwort beantwortet wird.
Lust auf Austausch?
Ich tausche mich immer gerne zum Thema KI aus! Mehr Infos zu meinem Ansatz beim Training von Mitarbeitern und Beratung findest Du auf der Homepage!
