Sie können das Glossar über das Suchfeld oder das Stichwortalphabet durchsuchen.

@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle

K

Konfabulation

In der Welt der Künstlichen Intelligenz bezeichnet Konfabulation das Phänomen, bei dem ein Sprachmodell wie ChatGPT scheinbar überzeugende, aber faktisch falsche Informationen erzeugt. Dieser Effekt ist vergleichbar mit dem menschlichen Gehirn, das bei Gedächtnislücken manchmal Erinnerungen „erfindet“, ohne dass die Person absichtlich lügt.

Sprachmodelle wie GPT-4 basieren auf statistischer Wahrscheinlichkeitsrechnung: Sie analysieren große Mengen an Textdaten und sagen vorher, welches Wort mit hoher Wahrscheinlichkeit als nächstes kommt. Dabei entsteht Sprache, die grammatisch korrekt und inhaltlich plausibel wirkt – auch wenn sie nicht auf überprüfbaren Fakten beruht.

Wenn das Modell auf unklare, mehrdeutige oder sehr spezifische Fragen stößt, für die es keine klaren Daten hat, kann es anfangen zu „halluzinieren“ – also Inhalte zu generieren, die erfunden oder vermischt sind. Das nennt man in der KI auch „Konfabulation“. Anders als bei Software mit festen Regeln gibt es hier kein festes Wissensregister – das Modell "füllt Lücken", wie es ein Mensch tun würde.

Beispiel:

Frage: „Welche Bücher schrieb Einstein nach dem Zweiten Weltkrieg?“
Konfabulierte Antwort: „Einstein veröffentlichte 1947 das Buch The Structure of Time.“
→ Klingt logisch, ist aber komplett erfunden. Dieses Buch existiert nicht.

Warum ist das problematisch?
Weil Nutzer oft den Eindruck haben, das Modell sei „allwissend“. Doch in Wahrheit „weiß“ es nichts – es simuliert Wissen durch Wahrscheinlichkeiten. Besonders bei medizinischen, juristischen oder wissenschaftlichen Fragen kann das zu gefährlichen Fehlinformationen führen.

Wie kann man dem begegnen?

  • Quellen verlangen oder selbst verifizieren

  • Bei sensiblen Themen mehrere Systeme oder Menschen konsultieren

  • Sprachmodelle nicht als Wissensdatenbanken, sondern als Assistenzsysteme betrachten

Fazit:
Konfabulation in der KI ist das plausible Erfinden von Inhalten, wenn das Modell keine zuverlässige Antwort parat hat. Es ist kein Zeichen von Bosheit oder Fehler im klassischen Sinn, sondern ein systembedingtes Verhalten. Wer mit Sprachmodellen arbeitet, sollte dieses Prinzip kennen – und Antworten kritisch hinterfragen.