Halluzination (KI)

Definition und Bedeutung:
In der Künstlichen Intelligenz bezeichnet der Begriff Halluzination die fehlerhafte Generierung von Inhalten durch Sprachmodelle oder andere KI-Systeme. Diese Inhalte wirken auf den ersten Blick plausibel und logisch, sind jedoch sachlich falsch, erfunden oder irreführend. Besonders häufig treten Halluzinationen bei generativen KI-Anwendungen wie Chatbots, Text-zu-Text-Systemen oder automatischen Übersetzungsdiensten auf.

Praxisrelevanz:
Für Fachkräfte ist das Verständnis von Halluzinationen entscheidend, um die Ausgaben von KI-Tools richtig einordnen und bewerten zu können. Im Unternehmenskontext können halluzinierte Inhalte zu Fehlentscheidungen, Reputationsschäden oder Compliance-Verstößen führen – insbesondere, wenn die KI in der Kundenkommunikation, Dokumentation oder Entscheidungsfindung eingesetzt wird. Deshalb sind geeignete Kontrollmechanismen und ein Bewusstsein für diese Limitation unerlässlich.

Ursachen und Gegenmaßnahmen:
Halluzinationen entstehen meist durch unvollständige oder fehlerhafte Trainingsdaten, durch eine unklare Aufgabenstellung (Prompting) oder durch die inhärente Funktionsweise probabilistischer Sprachmodelle. Um Risiken zu minimieren, sollten Nutzende Informationen aus KI-Systemen stets mit verlässlichen Quellen abgleichen, Prompts präzise formulieren und – wenn möglich – zusätzliche Validierungstools nutzen.

Einordnung im KI-Kontext:
Der Begriff „Halluzination“ ist ein anschauliches Beispiel für anthropomorphe Fachsprache in der KI und verdeutlicht die Notwendigkeit, Ergebnisse von generativen Systemen stets kritisch zu hinterfragen – unabhängig von deren sprachlicher Qualität oder Überzeugungskraft.

Quellen: 

Wikipedia, https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)

ACM Computing Surveys, https://dl.acm.org/journal/csur



» E-tivity 1.2: Wissensglossar