Sie können das Glossar über das Suchfeld oder das Stichwortalphabet durchsuchen.

@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle

B

Backpropagation

Lernen aus Fehlern

Backpropagation (Rückpropagagierung, Rückwärtsausbreitung von Fehlern) ist ein zentrales Lernverfahren für künstliche neuronale Netzwerke. Es handelt sich um einen Optimierungsalgorithmus. Dieser hat die Aufgabe, dass ein Netzwerk aus seinen Fehlern lernt. Es wird im Bereich des maschinellen Lernens und der künstlichen Intelligenz eingesetzt, um die Genauigkeit von Vorhersagen zu verbessern.

Dieser Prozess lässt sich gut verstehen, wenn man ihn folgendermaßen vereinfacht darstellt:
Ein Roboter soll lernen, dass er Bilder von Hunden und Katzen unterscheiden kann. Dazu bekommt er viele Bilder der genannten Tiere gezeigt. Nun wird ihm ein Bild eines Hundes gezeigt und er benennt es als Katze. Der Roboter erhält nun die Rückmeldung "Falsch, es ist ein Hund" und lernt aus seinem Fehler.

Die Methode, mit der der Roboter aus seinen Fehlern lernt, bezeichnet man als Backpropagation. In einfacher Erklärung läuft dies wie folgt ab:

1. Dem Roboter wird ein Bild gezeigt (Eingabe). Nun durchläuft die Anfrage ein neuronales Netzwerk, ein riesiges Netz aus verbundenen Knoten (Neuronen) in mehreren Schichten (Vorwärtsausbreitung). Es werden verschiedene Entscheidungen getroffen und am Ende gibt der Roboter eine Antwort, nämlich "Hund" oder "Katze" (Ausgabe).

2. Wenn die Antwort falsch ist, vergleicht das Netzwerk, was es gesagt hat und was die richtige Antwort gewesen wäre. Daraus wird berechnet, wie groß der Fehler ist.

3. Nun beginnt die eigentliche Bachpropagation: Es wird an der Ausgabe begonnen,  also bei der letzten Entscheidung. Der Fehler wird zurückverfolgt bis zum Anfang mit der Frage, welche Verbindung oder Entscheidung wie stark am Fehler beteiligt war. Dies erfolgt mithilfe eines mathematischen Verfahrens namens "Gradientenabstieg".

4. Das Netzwerk lernt aus seinem Fehler, indem die Verbindungen, die für den Fehler verantwortlich sind, immer wieder angepasst werden. Je mehr sie beteiligt waren, umso stärker die Anpassung. Diese Verbindungen werden als "Gewichte" bezeichnet.

Mit diesem Verfahren werden Fehler im Netzwerk erkannt und schrittweise korrigiert mit dem Ziel, dass das System in der Lösung der Aufgabe besser wird. Es wird trainiert.

Quellen:
- ChatGPT
https://ki-echo.de/glossar/backpropagation/
https://www.ibm.com/de-de/think/topics/backpropagation


Bias

Bias (Voreingenommenheit) 

Bias, auf Deutsch „Voreingenommenheit“ oder „Verzerrung“, bezeichnet in der Künstlichen Intelligenz (KI) systematische Fehler oder einseitige Tendenzen in den Ergebnissen eines Modells. Solche Verzerrungen entstehen häufig schon beim Sammeln und Verarbeiten von Trainingsdaten. Wenn ein KI-System auf Daten trainiert wird, die bestimmte Gruppen bevorzugen oder benachteiligen, übernimmt die KI diese Muster – oft unbemerkt.

Ein einfaches Beispiel: Wird ein KI-Modell zur Gesichtserkennung hauptsächlich mit Bildern von Menschen mit heller Hautfarbe trainiert, erkennt es später Gesichter mit dunkler Haut weniger zuverlässig. Dies liegt nicht an einem technischen Fehler, sondern an der ungleichmäßigen Repräsentation in den Daten.

Bias kann auch aus gesellschaftlichen Vorurteilen entstehen. Wenn Texte aus dem Internet als Trainingsdaten verwendet werden, kann die KI stereotype oder diskriminierende Aussagen lernen und wiedergeben – nicht weil sie „vorurteilsvoll“ ist, sondern weil sie aus Daten lernt, die solche Muster enthalten.

Es gibt verschiedene Arten von Bias: Datenbias (einseitige oder fehlerhafte Daten), Algorithmischer Bias (Verzerrung durch mathematische Verfahren), und kognitiver Bias (menschliche Denkfehler, die sich in der Modellentwicklung widerspiegeln).

Bias in KI zu erkennen und zu mindern ist entscheidend, um faire, vertrauenswürdige und ethisch vertretbare Systeme zu entwickeln. Forschende und Entwickler arbeiten deshalb daran, Modelle transparenter zu machen und sie mit vielfältigeren, besser ausbalancierten Daten zu trainieren.


Quellenangabe:
AI Union – Bias in der Künstlichen Intelligenz erklärt
https://www.ai-union.de/ki-glossar/bias-in-der-k%C3%BCnstlichen-intelligenz-erkl%C3%A4rt