Bias

Bias (Voreingenommenheit) 

Bias, auf Deutsch „Voreingenommenheit“ oder „Verzerrung“, bezeichnet in der Künstlichen Intelligenz (KI) systematische Fehler oder einseitige Tendenzen in den Ergebnissen eines Modells. Solche Verzerrungen entstehen häufig schon beim Sammeln und Verarbeiten von Trainingsdaten. Wenn ein KI-System auf Daten trainiert wird, die bestimmte Gruppen bevorzugen oder benachteiligen, übernimmt die KI diese Muster – oft unbemerkt.

Ein einfaches Beispiel: Wird ein KI-Modell zur Gesichtserkennung hauptsächlich mit Bildern von Menschen mit heller Hautfarbe trainiert, erkennt es später Gesichter mit dunkler Haut weniger zuverlässig. Dies liegt nicht an einem technischen Fehler, sondern an der ungleichmäßigen Repräsentation in den Daten.

Bias kann auch aus gesellschaftlichen Vorurteilen entstehen. Wenn Texte aus dem Internet als Trainingsdaten verwendet werden, kann die KI stereotype oder diskriminierende Aussagen lernen und wiedergeben – nicht weil sie „vorurteilsvoll“ ist, sondern weil sie aus Daten lernt, die solche Muster enthalten.

Es gibt verschiedene Arten von Bias: Datenbias (einseitige oder fehlerhafte Daten), Algorithmischer Bias (Verzerrung durch mathematische Verfahren), und kognitiver Bias (menschliche Denkfehler, die sich in der Modellentwicklung widerspiegeln).

Bias in KI zu erkennen und zu mindern ist entscheidend, um faire, vertrauenswürdige und ethisch vertretbare Systeme zu entwickeln. Forschende und Entwickler arbeiten deshalb daran, Modelle transparenter zu machen und sie mit vielfältigeren, besser ausbalancierten Daten zu trainieren.


Quellenangabe:
AI Union – Bias in der Künstlichen Intelligenz erklärt
https://www.ai-union.de/ki-glossar/bias-in-der-k%C3%BCnstlichen-intelligenz-erkl%C3%A4rt

» E-tivity 1.2: Wissensglossar