KI-Tool Expert (IHK) Berufsbegleitender Onlinekurs Start: 16.05.2025
Ein gemeinsames Wissensglossar entwickeln
Ob in der Wissenschaft, Technik oder im beruflichen Alltag – Fachbegriffe helfen dabei, komplexe Sachverhalte zu strukturieren und Missverständnisse zu vermeiden. Gerade wenn wir mit neuen Themen oder Disziplinen in Berührung kommen, ist es wichtig, unbekannte Begriffe gezielt zu definieren.
Durch das Erstellen eines gemeinsamen Wissensglossars tragen wir dazu bei, unser Verständnis zu vertiefen und unser Wissen strukturiert zu erweitern. Indem wir einen Fachbegriff, den wir zuvor noch nicht kannten, recherchieren und definieren, fördern wir nicht nur unser eigenes Lernen, sondern ermöglichen es auch anderen, von unserem Wissen zu profitieren.
Aufgabe: Erstellt einen Eintrag im Wissensglossar, indem ihr einen ausgewählten Fachbegriff passend zum aktuellen Modul definiert. Bitte gebt am Ende eure Quellen an.
Grundlage für diese Aufgabe ist die Dozentenpräsentation, welche ihr in den "Materialien zu Modul 1" findet. Bitte beachtet bei der Bearbeitung der Aufgabe zudem die Mindest- bzw. Höchstwortanzahl: mindestens 200 Wörter, höchstens 400 Wörter.
Feedback: In dieser Aufgabe ist kein Peer-Feedback erforderlich.
@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle
B |
---|
BackpropagationLernen aus FehlernBackpropagation (Rückpropagagierung, Rückwärtsausbreitung von Fehlern) ist ein zentrales Lernverfahren für künstliche neuronale Netzwerke. Es handelt sich um einen Optimierungsalgorithmus. Dieser hat die Aufgabe, dass ein Netzwerk aus seinen Fehlern lernt. Es wird im Bereich des maschinellen Lernens und der künstlichen Intelligenz eingesetzt, um die Genauigkeit von Vorhersagen zu verbessern. Dieser Prozess lässt sich gut verstehen, wenn man ihn folgendermaßen vereinfacht darstellt: Die Methode, mit der der Roboter aus seinen Fehlern lernt, bezeichnet man als Backpropagation. In einfacher Erklärung läuft dies wie folgt ab: 2. Wenn die Antwort falsch ist, vergleicht das Netzwerk, was es gesagt hat und was die richtige Antwort gewesen wäre. Daraus wird berechnet, wie groß der Fehler ist. 3. Nun beginnt die eigentliche Bachpropagation: Es wird an der Ausgabe begonnen, also bei der letzten Entscheidung. Der Fehler wird zurückverfolgt bis zum Anfang mit der Frage, welche Verbindung oder Entscheidung wie stark am Fehler beteiligt war. Dies erfolgt mithilfe eines mathematischen Verfahrens namens "Gradientenabstieg". 4. Das Netzwerk lernt aus seinem Fehler, indem die Verbindungen, die für den Fehler verantwortlich sind, immer wieder angepasst werden. Je mehr sie beteiligt waren, umso stärker die Anpassung. Diese Verbindungen werden als "Gewichte" bezeichnet. Mit diesem Verfahren werden Fehler im Netzwerk erkannt und schrittweise korrigiert mit dem Ziel, dass das System in der Lösung der Aufgabe besser wird. Es wird trainiert. Quellen: | |
BiasBias (Voreingenommenheit) Bias, auf Deutsch „Voreingenommenheit“ oder „Verzerrung“, bezeichnet in der Künstlichen Intelligenz (KI) systematische Fehler oder einseitige Tendenzen in den Ergebnissen eines Modells. Solche Verzerrungen entstehen häufig schon beim Sammeln und Verarbeiten von Trainingsdaten. Wenn ein KI-System auf Daten trainiert wird, die bestimmte Gruppen bevorzugen oder benachteiligen, übernimmt die KI diese Muster – oft unbemerkt. Ein einfaches Beispiel: Wird ein KI-Modell zur Gesichtserkennung hauptsächlich mit Bildern von Menschen mit heller Hautfarbe trainiert, erkennt es später Gesichter mit dunkler Haut weniger zuverlässig. Dies liegt nicht an einem technischen Fehler, sondern an der ungleichmäßigen Repräsentation in den Daten. Bias kann auch aus gesellschaftlichen Vorurteilen entstehen. Wenn Texte aus dem Internet als Trainingsdaten verwendet werden, kann die KI stereotype oder diskriminierende Aussagen lernen und wiedergeben – nicht weil sie „vorurteilsvoll“ ist, sondern weil sie aus Daten lernt, die solche Muster enthalten. Es gibt verschiedene Arten von Bias: Datenbias (einseitige oder fehlerhafte Daten), Algorithmischer Bias (Verzerrung durch mathematische Verfahren), und kognitiver Bias (menschliche Denkfehler, die sich in der Modellentwicklung widerspiegeln). Bias in KI zu erkennen und zu mindern ist entscheidend, um faire, vertrauenswürdige und ethisch vertretbare Systeme zu entwickeln. Forschende und Entwickler arbeiten deshalb daran, Modelle transparenter zu machen und sie mit vielfältigeren, besser ausbalancierten Daten zu trainieren. Quellenangabe: | ||