Sie können das Glossar über das Suchfeld oder das Stichwortalphabet durchsuchen.

@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle

Seite:  1  2  3  (Weiter)
  Alle

B

Backpropagation

Lernen aus Fehlern

Backpropagation (Rückpropagagierung, Rückwärtsausbreitung von Fehlern) ist ein zentrales Lernverfahren für künstliche neuronale Netzwerke. Es handelt sich um einen Optimierungsalgorithmus. Dieser hat die Aufgabe, dass ein Netzwerk aus seinen Fehlern lernt. Es wird im Bereich des maschinellen Lernens und der künstlichen Intelligenz eingesetzt, um die Genauigkeit von Vorhersagen zu verbessern.

Dieser Prozess lässt sich gut verstehen, wenn man ihn folgendermaßen vereinfacht darstellt:
Ein Roboter soll lernen, dass er Bilder von Hunden und Katzen unterscheiden kann. Dazu bekommt er viele Bilder der genannten Tiere gezeigt. Nun wird ihm ein Bild eines Hundes gezeigt und er benennt es als Katze. Der Roboter erhält nun die Rückmeldung "Falsch, es ist ein Hund" und lernt aus seinem Fehler.

Die Methode, mit der der Roboter aus seinen Fehlern lernt, bezeichnet man als Backpropagation. In einfacher Erklärung läuft dies wie folgt ab:

1. Dem Roboter wird ein Bild gezeigt (Eingabe). Nun durchläuft die Anfrage ein neuronales Netzwerk, ein riesiges Netz aus verbundenen Knoten (Neuronen) in mehreren Schichten (Vorwärtsausbreitung). Es werden verschiedene Entscheidungen getroffen und am Ende gibt der Roboter eine Antwort, nämlich "Hund" oder "Katze" (Ausgabe).

2. Wenn die Antwort falsch ist, vergleicht das Netzwerk, was es gesagt hat und was die richtige Antwort gewesen wäre. Daraus wird berechnet, wie groß der Fehler ist.

3. Nun beginnt die eigentliche Bachpropagation: Es wird an der Ausgabe begonnen,  also bei der letzten Entscheidung. Der Fehler wird zurückverfolgt bis zum Anfang mit der Frage, welche Verbindung oder Entscheidung wie stark am Fehler beteiligt war. Dies erfolgt mithilfe eines mathematischen Verfahrens namens "Gradientenabstieg".

4. Das Netzwerk lernt aus seinem Fehler, indem die Verbindungen, die für den Fehler verantwortlich sind, immer wieder angepasst werden. Je mehr sie beteiligt waren, umso stärker die Anpassung. Diese Verbindungen werden als "Gewichte" bezeichnet.

Mit diesem Verfahren werden Fehler im Netzwerk erkannt und schrittweise korrigiert mit dem Ziel, dass das System in der Lösung der Aufgabe besser wird. Es wird trainiert.

Quellen:
- ChatGPT
https://ki-echo.de/glossar/backpropagation/
https://www.ibm.com/de-de/think/topics/backpropagation


Bias

Bias (Voreingenommenheit) 

Bias, auf Deutsch „Voreingenommenheit“ oder „Verzerrung“, bezeichnet in der Künstlichen Intelligenz (KI) systematische Fehler oder einseitige Tendenzen in den Ergebnissen eines Modells. Solche Verzerrungen entstehen häufig schon beim Sammeln und Verarbeiten von Trainingsdaten. Wenn ein KI-System auf Daten trainiert wird, die bestimmte Gruppen bevorzugen oder benachteiligen, übernimmt die KI diese Muster – oft unbemerkt.

Ein einfaches Beispiel: Wird ein KI-Modell zur Gesichtserkennung hauptsächlich mit Bildern von Menschen mit heller Hautfarbe trainiert, erkennt es später Gesichter mit dunkler Haut weniger zuverlässig. Dies liegt nicht an einem technischen Fehler, sondern an der ungleichmäßigen Repräsentation in den Daten.

Bias kann auch aus gesellschaftlichen Vorurteilen entstehen. Wenn Texte aus dem Internet als Trainingsdaten verwendet werden, kann die KI stereotype oder diskriminierende Aussagen lernen und wiedergeben – nicht weil sie „vorurteilsvoll“ ist, sondern weil sie aus Daten lernt, die solche Muster enthalten.

Es gibt verschiedene Arten von Bias: Datenbias (einseitige oder fehlerhafte Daten), Algorithmischer Bias (Verzerrung durch mathematische Verfahren), und kognitiver Bias (menschliche Denkfehler, die sich in der Modellentwicklung widerspiegeln).

Bias in KI zu erkennen und zu mindern ist entscheidend, um faire, vertrauenswürdige und ethisch vertretbare Systeme zu entwickeln. Forschende und Entwickler arbeiten deshalb daran, Modelle transparenter zu machen und sie mit vielfältigeren, besser ausbalancierten Daten zu trainieren.


Quellenangabe:
AI Union – Bias in der Künstlichen Intelligenz erklärt
https://www.ai-union.de/ki-glossar/bias-in-der-k%C3%BCnstlichen-intelligenz-erkl%C3%A4rt


C

Cloudbasierte KIs

Glossarbeitrag: Funktionsweise von cloudbasierten Künstlichen Intelligenzen (KIs)

Cloudbasierte Künstliche Intelligenzen (KIs) sind Programme, die intelligente Aufgaben wie Textverstehen, Bilderkennung oder Sprachverarbeitung ausführen – und zwar nicht lokal auf dem eigenen Gerät, sondern über das Internet („in der Cloud“).

Was bedeutet „cloudbasiert“?

Die Cloud ist ein Netzwerk von Rechenzentren, das Rechenleistung und Speicherplatz bereitstellt. Wenn eine KI „cloudbasiert“ ist, läuft sie also auf leistungsstarken Servern, die oft weit entfernt stehen – zum Beispiel in Rechenzentren von Anbietern wie Amazon Web Services, Google Cloud oder Microsoft Azure.


Wie funktioniert das?

  1. Nutzeranfrage:
    Du gibst über eine App oder Website z. B. eine Frage ein oder lädst ein Bild hoch.

  2. Datenübertragung:
    Deine Anfrage wird über das Internet an die Cloud gesendet.

  3. Verarbeitung in der Cloud:
    Dort nimmt ein KI-System die Daten entgegen, verarbeitet sie mithilfe eines vortrainierten Modells und erstellt eine passende Antwort oder Analyse.

  4. Rückgabe des Ergebnisses:
    Die Antwort wird wieder an dein Gerät gesendet – meist in Sekundenschnelle.


Warum wird KI in der Cloud betrieben?

  • Mehr Rechenleistung: Moderne KI-Modelle brauchen sehr viel Rechenpower – weit mehr, als ein Laptop oder Smartphone leisten kann.

  • Aktualität: In der Cloud kann ein Modell zentral gepflegt und aktualisiert werden – du musst nichts installieren.

  • Skalierbarkeit: Viele Anfragen können gleichzeitig bearbeitet werden, ohne dass Systeme überlasten.

  • Zugänglichkeit: Entwickler und Unternehmen können KI-Funktionen einfach per Schnittstelle (API) in ihre Anwendungen einbinden.


Vorteile:

Kein starker Computer notwendig
Immer auf dem neuesten Stand
Schnelle Ergebnisse bei großen Datenmengen

Herausforderungen:

Internetverbindung erforderlich
Datenschutz muss beachtet werden
Nutzung kann kostenpflichtig sein


Fazit:
Cloudbasierte KIs machen moderne künstliche Intelligenz für viele Menschen und Unternehmen zugänglich – schnell, skalierbar und leistungsstark. Sie sind ein zentraler Bestandteil der digitalen Zukunft.

Quellen:

https://www.cloudcomputing-insider.de/was-ist-cloudbasierte-ki-a-07dfe98b4de161308de81814f9470952/

https://digitalzentrum-chemnitz.de/wissen/cloudbasierte-ki/


D

Deep Learning

Deep Learning (Tiefes Lernen)


Definition:
Deep Learning ist ein Teilbereich der Künstlichen Intelligenz (KI) und des maschinellen Lernens (ML). Es orientiert sich am Aufbau und der Funktionsweise des menschlichen Gehirns. Ziel ist es, komplexe Muster in großen Datenmengen zu erkennen und zu verarbeiten – mithilfe sogenannter künstlicher neuronaler Netze mit vielen Schichten (engl. "deep").

Grundprinzip:
Ein neuronales Netz besteht aus mehreren Schichten von Neuronen. Die Eingangsdaten (z. B. ein Bild) werden Schicht für Schicht verarbeitet. Jede Schicht (Layer) extrahiert Merkmale, von einfachen (z. B. Kanten) bis zu komplexen (z. B. Gesichter). Durch diesen hierarchischen Lernprozess erkennt das Modell Zusammenhänge und kann Vorhersagen treffen.

Wichtige Methoden im Deep Learning:

  1. Künstliche neuronale Netze (ANNs)
    Grundstruktur des Deep Learnings, mit mehreren Schichten zwischen Eingabe und Ausgabe.

  2. Convolutional Neural Networks (CNNs)
    Speziell für Bildverarbeitung entwickelt. CNNs erkennen Muster wie Formen, Objekte oder Schrift in visuellen Daten.

  3. Recurrent Neural Networks (RNNs)
    Eignen sich für zeitabhängige Daten, etwa Sprache oder Texte. Sie behalten frühere Informationen über Schleifen im Gedächtnis.

  4. Long Short-Term Memory (LSTM)
    Eine Erweiterung der RNNs, speziell zur Vermeidung von Informationsverlust über lange Zeitreihen. Oft verwendet in der Sprachverarbeitung.

  5. Generative Adversarial Networks (GANs)
    Zwei Netzwerke konkurrieren miteinander: Eines generiert Daten, das andere bewertet sie. Besonders für realistische Bilderzeugung bekannt.

  6. Transformermodelle
    Aktuell führend bei Text- und Sprachverarbeitung. Berühmtes Beispiel: GPT. Sie analysieren Zusammenhänge in ganzen Textabschnitten gleichzeitig.


Anwendungsbereiche:
Deep Learning findet sich heute in vielen Bereichen: 

1. Gesichtserkennung auf dem Smartphone

Convolutional Neural Networks (CNNs)
Apple Face ID oder Android Face Unlock beruhen auf Deep Learning-Modellen, die Gesichter präzise identifizieren.

2. Sprachassistenten wie Alexa, Siri und Google Assistant

Diese Systeme nutzen Recurrent Neural Networks (RNNs) oder moderne Transformermodelle, um Sprache zu 
verstehen und sinnvoll zu antworten. Deep Learning erlaubt es, natürliche Sprache zu interpretieren 

3. Medizinische Diagnostik (z. B. Hautkrebs-Früherkennung)

KI-Systeme können auf Basis von Millionen Bildern lernen, Tumore oder Veränderungen in Röntgen-, MRT- oder CT-Bildern
zu erkennen. Deep Learning hilft hier bei der frühen Diagnose und Therapieplanung.

4. Betrugserkennung im Online-Banking

Deep Learning erkennt ungewöhnliche Muster in Transaktionen. Ein antrainiertes neuronales Netz kann Betrugsversuche in 
Millisekunden aufspüren.

5. Kreative KI (z. B. Bild- und Musikgenerierung)

Mit Generative Adversarial Networks (GANs) können realistische Bilder, Musikstücke oder sogar Gemälde erschaffen werden.
Künstler und Designer nutzen diese Technik z. B. für Prototyping oder Content Creation.

Fazit:
Deep Learning führt eine jahrzehntelange Entwicklung in der Informatik fort – mit einer bewährten Methode:
Lernen durch Schichten, inspiriert vom menschlichen Denken. 

Quelle: www.chatgpt.com


E

EU AI Act

Der EU AI Act ist ein Gesetz der Europäischen Union, das Regeln für den Umgang mit künstlicher Intelligenz (KI) festlegt. Ziel ist es, Risiken zu minimieren, Sicherheit zu garantieren und Vertrauen in KI-Systeme zu schaffen. Das Gesetz unterscheidet dabei zwischen verschiedenen Risikostufen – von geringem bis hin zu unvertretbarem Risiko.

Ein zentrales Prinzip des Gesetzes ist: Je höher das Risiko für die Grundrechte, Gesundheit oder Sicherheit, desto strenger die Vorschriften. Systeme mit "unvertretbarem Risiko", wie z. B. KI zur sozialen Bewertung von Personen (Social Scoring), werden ganz verboten. Andere, wie KI in der Bildung oder im Gesundheitswesen, unterliegen strengeren Prüf- und Transparenzpflichten.

Wer legt die Risikostufen fest?
Die Einordnung der KI-Systeme in Risikoklassen erfolgt durch die Europäische Kommission auf Grundlage des Gesetzes und wird regelmäßig aktualisiert. Dabei orientiert man sich an der Funktion des Systems, dem Einsatzbereich und dem möglichen Einfluss auf Menschen. Zusätzlich können nationale Behörden, etwa in Deutschland die Bundesnetzagentur oder die Datenschutzaufsicht, unterstützend bei der Überwachung und Durchsetzung mitwirken.

Beispiel für Deutschland:
Ein KI-System, das Bewerbungen bei der Jobsuche automatisch vorsortiert – wie es bei manchen großen Unternehmen in Deutschland eingesetzt wird – fällt unter den EU AI Act. Wenn dieses System diskriminierend arbeitet, z. B. Bewerbungen aufgrund des Geschlechts oder der Herkunft benachteiligt, ist das ein hohes Risiko. Solche Systeme müssen nach dem Gesetz besonders geprüft und dokumentiert werden, damit sie fair und nachvollziehbar bleiben.

Bei Verstößen gegen den EU AI Act drohen teils erhebliche Sanktionen und Geldbußen – ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO). Ziel ist es, sicherzustellen, dass sich Unternehmen und Behörden an die Regeln halten und verantwortungsvoll mit KI umgehen.

Konsequenzen bei Verstößen im Überblick:

  1. Bußgelder
    Je nach Schwere des Verstoßes können Strafen von bis zu:

  • 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist) verhängt werden – z. B. bei Verwendung verbotener KI-Systeme.

  • 20 Millionen Euro oder 4 % des weltweiten Umsatzes bei Verstößen gegen Vorschriften für Hochrisiko-Systeme (z. B. unzureichende Sicherheitsmaßnahmen oder fehlende Transparenz).

  • 10 Millionen Euro oder 2 % des Umsatzes bei Verstößen gegen Dokumentations- oder Mitwirkungspflichten.

  1. Anordnung zur Einstellung der Nutzung
    Die Behörden können den weiteren Einsatz eines rechtswidrigen KI-Systems untersagen oder den Rückruf des Produkts anordnen.

  2. Image- und Vertrauensverlust
    Insbesondere für Unternehmen kann ein Verstoß auch zu Vertrauensverlust bei Kundinnen und Kunden sowie zu Reputationsschäden führen.

  3. Haftung und Schadensersatz
    Wenn durch ein KI-System ein Mensch zu Schaden kommt (z. B. durch Diskriminierung oder falsche Entscheidungen), kann das Unternehmen haftbar gemacht werden – auch zivilrechtlich.


Quelle ChatGPT




G

General AI

🤖 Was ist „General AI“?

General AI oder auf Deutsch Allgemeine Künstliche Intelligenz ist eine Art von KI, die so denken, lernen und handeln kann wie ein Mensch – und zwar in ganz verschiedenen Bereichen, nicht nur in einem einzigen.

Man nennt sie auch manchmal „starke KI“.


🧠 Vergleich: General AI vs. heutige KI (z. B. ChatGPT)

Art der KIWas sie kannBeispiel
Heutige KI(spezifisch)Nur bestimmte Aufgaben gut lösenChatGPT schreibt Texte, aber kann nicht Auto fahren
General AIAlles lernen & verstehen wie ein MenschSie könnte Texte schreiben, Auto fahren, kochen lernen – alles mit einem einzigen „Gehirn“

🎯 Ziel von General AI

Das Ziel von General AI ist es, eine Maschine zu bauen, die:

  • selbstständig denken kann,

  • neue Dinge lernen kann – in jedem Bereich,

  • Probleme kreativ lösen kann,

  • sich an neue Situationen genauso flexibel anpasst wie ein Mensch.


❗ Gibt es General AI schon?

Nein, noch nicht.
Heutige KIs (wie ChatGPT) sind sehr fortgeschritten, aber sie sind immer noch „spezialisierte KIs“.
General AI ist ein Ziel der Forschung – viele Experten arbeiten daran, aber es könnte noch Jahre oder Jahrzehnte dauern.


🔍 Warum ist General AI so spannend (und auch umstritten)?

  • Sie könnte viele komplexe Probleme lösen – Medizin, Klima, Bildung …

  • Aber sie wirft auch große Fragen auf:
    Wer kontrolliert sie? Was passiert, wenn sie besser wird als der Mensch?

Deshalb ist General AI ein wichtiges Thema in Technik, Ethik und Politik.


Quelle und Erzeugung durch ChatGPT


Geschichte der KI

Die Entwicklung der Künstlichen Intelligenz (KI) reicht weit zurück. Bereits Aristoteles (384–322 v. Chr.) legte mit seiner formalen Logik und dem Syllogismus Grundlagen für deduktives Denken. Im Mittelalter entwickelte Ramon Llull (1232–1315) mit der Ars magna ein Kombinationssystem als Vorläufer symbolischer KI (Wikipedia). In der Neuzeit trugen René Descartes (1596–1650) mit der mathesis universalis und Gottfried Wilhelm Leibniz (1646–1716) mit der characteristica universalis sowie dem Calculus ratiocinator maßgeblich zur Idee eines formalen Denkens bei (Wikipedia).

Im 18. und 19. Jahrhundert faszinierten mechanische Automaten wie der „Schachtürke“ (1770) von Wolfgang von Kempelen. Charles Babbage (1791–1871) entwarf mit der Analytical Engine eine programmierbare Rechenmaschine. 1914 präsentierte Leonardo Torres y Quevedo mit El Ajedrecista den ersten funktionierenden Schachautomaten (DIE WELT).

Mathematische Grundlagen lieferten George Boole (1854) mit der booleschen Algebra, Gottlob Frege (1879) mit der Begriffsschrift und Bertrand Russell & Alfred North Whitehead (1910–13) mit den Principia Mathematica. Kurt Gödel (1931) bewies die Grenzen formaler Systeme, und Alan Turing (1936) legte mit der Turing-Maschine das Fundament der Informatik (Wikipedia, DIE WELT, Computerwoche).

1950 schlug Turing den Turing-Test vor. 1956 begründete die Dartmouth Conference unter John McCarthy offiziell die KI-Forschung (Wikipedia, HNU). Meilensteine folgten: ELIZA (1966), MYCIN (1972), Deep Blue (1997), IBM Watson (2011) und AlphaGo (2016) (mebis.bycs.de, Bosch Global, DIE WELT).

Moderne Fortschritte wie Backpropagation (1986), Generative Adversarial Networks (2014) und GPT-3 (2020) markieren den Aufstieg des Deep Learning (IBM).

Quellen: Wikipedia, DIE WELT, Bosch Global, IBM, Computerwoche, HNU, mebis.bycs.de, CIO DE, KI Experten.

Nr. Titel der Quelle Beschreibung URL
1 Geschichte der künstlichen Intelligenz – Wikipedia Umfassender Überblick über die Entwicklung der KI von antiken Konzepten bis zur modernen Forschung. https://de.wikipedia.org/wiki/Geschichte_der_k%C3%BCnstlichen_Intelligenz
2 Geschichte der Künstlichen Intelligenz – Bosch Global Darstellung der wichtigsten Meilensteine der KI-Entwicklung aus Sicht eines Technologiekonzerns. https://www.bosch.com/de/stories/geschichte-der-kuenstlichen-intelligenz/
3 The History of Artificial Intelligence – IBM Einblicke in die Fortschritte und Anwendungen der KI aus Sicht eines führenden IT-Unternehmens. https://www.ibm.com/think/topics/history-of-artificial-intelligence
4 History of artificial intelligence – Wikipedia (englisch) Detaillierte Darstellung der KI-Geschichte mit Fokus auf internationale Entwicklungen. https://en.wikipedia.org/wiki/History_of_artificial_intelligence
5 Künstliche Intelligenz – Wikipedia Allgemeine Informationen zu Definitionen, Forschungsgebieten und Anwendungen der KI. https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz
6 Wie der „Schachtürke" die Anfänge der KI begründete – Welt.de Artikel über den Schachautomaten „Schachtürke“ und dessen Einfluss auf die Entwicklung der KI. https://www.welt.de/252543626
7 Computer tritt in Quizshow gegen Menschen an – Welt.de Bericht über den IBM-Supercomputer Watson und dessen Teilnahme an der Quizshow „Jeopardy!“. https://www.welt.de/104039705
8 Was ist KI? Entwicklung und Geschichte der Künstlichen Intelligenz – OMQ Blog Überblick über die Entwicklung der KI mit Fokus auf moderne Anwendungen und Technologien. https://omq.ai/de/blog/geschichte-der-ki/
9 Piece on “Leibniz, Llull, and the Computational Imagination” – Jonathan Gray Analyse der Beiträge von Leibniz und Llull zur formalen Logik und deren Einfluss auf die KI. https://jonathangray.org/2016/11/12/piece-on-leibniz-llull-and-the-computational-imagination-in-the-public-domain-review/
10 Ars magna – Britannica Beschreibung von Ramon Llulls Werk „Ars magna“ und dessen Bedeutung für die symbolische Logik. https://www.britannica.com/topic/Ars-magna


H

Halluzination (KI)

Definition und Bedeutung:
In der Künstlichen Intelligenz bezeichnet der Begriff Halluzination die fehlerhafte Generierung von Inhalten durch Sprachmodelle oder andere KI-Systeme. Diese Inhalte wirken auf den ersten Blick plausibel und logisch, sind jedoch sachlich falsch, erfunden oder irreführend. Besonders häufig treten Halluzinationen bei generativen KI-Anwendungen wie Chatbots, Text-zu-Text-Systemen oder automatischen Übersetzungsdiensten auf.

Praxisrelevanz:
Für Fachkräfte ist das Verständnis von Halluzinationen entscheidend, um die Ausgaben von KI-Tools richtig einordnen und bewerten zu können. Im Unternehmenskontext können halluzinierte Inhalte zu Fehlentscheidungen, Reputationsschäden oder Compliance-Verstößen führen – insbesondere, wenn die KI in der Kundenkommunikation, Dokumentation oder Entscheidungsfindung eingesetzt wird. Deshalb sind geeignete Kontrollmechanismen und ein Bewusstsein für diese Limitation unerlässlich.

Ursachen und Gegenmaßnahmen:
Halluzinationen entstehen meist durch unvollständige oder fehlerhafte Trainingsdaten, durch eine unklare Aufgabenstellung (Prompting) oder durch die inhärente Funktionsweise probabilistischer Sprachmodelle. Um Risiken zu minimieren, sollten Nutzende Informationen aus KI-Systemen stets mit verlässlichen Quellen abgleichen, Prompts präzise formulieren und – wenn möglich – zusätzliche Validierungstools nutzen.

Einordnung im KI-Kontext:
Der Begriff „Halluzination“ ist ein anschauliches Beispiel für anthropomorphe Fachsprache in der KI und verdeutlicht die Notwendigkeit, Ergebnisse von generativen Systemen stets kritisch zu hinterfragen – unabhängig von deren sprachlicher Qualität oder Überzeugungskraft.

Quellen: 

Wikipedia, https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)

ACM Computing Surveys, https://dl.acm.org/journal/csur




K

Konfabulation

In der Welt der Künstlichen Intelligenz bezeichnet Konfabulation das Phänomen, bei dem ein Sprachmodell wie ChatGPT scheinbar überzeugende, aber faktisch falsche Informationen erzeugt. Dieser Effekt ist vergleichbar mit dem menschlichen Gehirn, das bei Gedächtnislücken manchmal Erinnerungen „erfindet“, ohne dass die Person absichtlich lügt.

Sprachmodelle wie GPT-4 basieren auf statistischer Wahrscheinlichkeitsrechnung: Sie analysieren große Mengen an Textdaten und sagen vorher, welches Wort mit hoher Wahrscheinlichkeit als nächstes kommt. Dabei entsteht Sprache, die grammatisch korrekt und inhaltlich plausibel wirkt – auch wenn sie nicht auf überprüfbaren Fakten beruht.

Wenn das Modell auf unklare, mehrdeutige oder sehr spezifische Fragen stößt, für die es keine klaren Daten hat, kann es anfangen zu „halluzinieren“ – also Inhalte zu generieren, die erfunden oder vermischt sind. Das nennt man in der KI auch „Konfabulation“. Anders als bei Software mit festen Regeln gibt es hier kein festes Wissensregister – das Modell "füllt Lücken", wie es ein Mensch tun würde.

Beispiel:

Frage: „Welche Bücher schrieb Einstein nach dem Zweiten Weltkrieg?“
Konfabulierte Antwort: „Einstein veröffentlichte 1947 das Buch The Structure of Time.“
→ Klingt logisch, ist aber komplett erfunden. Dieses Buch existiert nicht.

Warum ist das problematisch?
Weil Nutzer oft den Eindruck haben, das Modell sei „allwissend“. Doch in Wahrheit „weiß“ es nichts – es simuliert Wissen durch Wahrscheinlichkeiten. Besonders bei medizinischen, juristischen oder wissenschaftlichen Fragen kann das zu gefährlichen Fehlinformationen führen.

Wie kann man dem begegnen?

  • Quellen verlangen oder selbst verifizieren

  • Bei sensiblen Themen mehrere Systeme oder Menschen konsultieren

  • Sprachmodelle nicht als Wissensdatenbanken, sondern als Assistenzsysteme betrachten

Fazit:
Konfabulation in der KI ist das plausible Erfinden von Inhalten, wenn das Modell keine zuverlässige Antwort parat hat. Es ist kein Zeichen von Bosheit oder Fehler im klassischen Sinn, sondern ein systembedingtes Verhalten. Wer mit Sprachmodellen arbeitet, sollte dieses Prinzip kennen – und Antworten kritisch hinterfragen.



L

Large Language Models (LLMs)


Large Language Models
(LLMs) sind KI-Modelle, die auf der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) basieren. Sie gehören zur Klasse der Foundation Models und sind in der Lage, Sprache zu verstehen, zu analysieren und zu generieren. Grundlage dafür ist das Training auf riesigen Textmengen, wodurch sie Muster und Bedeutungen in Sprache erkennen können.

Technisch basieren LLMs auf tiefen neuronalen Netzen, insbesondere der sogenannten Transformer-Architektur. Diese Netzwerke bestehen aus vielen Schichten künstlicher Neuronen, die Informationen verarbeiten und gewichten. Ein zentrales Element ist der Aufmerksamkeitsmechanismus (Attention), der es dem Modell ermöglicht, relevante Teile eines Textes gezielt zu berücksichtigen.

Ein wesentliches Funktionsprinzip von LLMs ist die Wahrscheinlichkeitsberechnung: Das Modell sagt vorher, welches Wort (bzw. Token) mit der höchsten Wahrscheinlichkeit als nächstes folgt. Diese Vorhersage basiert auf dem bisherigen Kontext und wird durch eine Wahrscheinlichkeitsverteilung über den gesamten Wortschatz dargestellt. So entstehen flüssige, kontextbezogene Texte.

LLMs können sowohl allgemeine Aufgaben wie Textgenerierung, Übersetzung oder Zusammenfassung übernehmen als auch für spezifische Anwendungsfälle angepasst werden, etwa in der Medizin, im Recht oder im Kundenservice. Während allgemeine Modelle breit einsetzbar sind, bieten spezialisierte Modelle oft höhere Genauigkeit in ihrem jeweiligen Fachgebiet.

Trotz ihrer Vielseitigkeit bringen LLMs auch Herausforderungen mit sich – etwa hohe Rechenkosten, potenzielle Verzerrungen in den Trainingsdaten und ethische Fragen zur Transparenz und Verantwortung.

Quellen:



Seite:  1  2  3  (Weiter)
  Alle