KI-Tool Expert (IHK) Berufsbegleitender Onlinekurs Start: 16.05.2025
Ein gemeinsames Wissensglossar entwickeln
Ob in der Wissenschaft, Technik oder im beruflichen Alltag – Fachbegriffe helfen dabei, komplexe Sachverhalte zu strukturieren und Missverständnisse zu vermeiden. Gerade wenn wir mit neuen Themen oder Disziplinen in Berührung kommen, ist es wichtig, unbekannte Begriffe gezielt zu definieren.
Durch das Erstellen eines gemeinsamen Wissensglossars tragen wir dazu bei, unser Verständnis zu vertiefen und unser Wissen strukturiert zu erweitern. Indem wir einen Fachbegriff, den wir zuvor noch nicht kannten, recherchieren und definieren, fördern wir nicht nur unser eigenes Lernen, sondern ermöglichen es auch anderen, von unserem Wissen zu profitieren.
Aufgabe: Erstellt einen Eintrag im Wissensglossar, indem ihr einen ausgewählten Fachbegriff passend zum aktuellen Modul definiert. Bitte gebt am Ende eure Quellen an.
Grundlage für diese Aufgabe ist die Dozentenpräsentation, welche ihr in den "Materialien zu Modul 1" findet. Bitte beachtet bei der Bearbeitung der Aufgabe zudem die Mindest- bzw. Höchstwortanzahl: mindestens 200 Wörter, höchstens 400 Wörter.
Feedback: In dieser Aufgabe ist kein Peer-Feedback erforderlich.
@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle
B |
---|
BackpropagationLernen aus FehlernBackpropagation (Rückpropagagierung, Rückwärtsausbreitung von Fehlern) ist ein zentrales Lernverfahren für künstliche neuronale Netzwerke. Es handelt sich um einen Optimierungsalgorithmus. Dieser hat die Aufgabe, dass ein Netzwerk aus seinen Fehlern lernt. Es wird im Bereich des maschinellen Lernens und der künstlichen Intelligenz eingesetzt, um die Genauigkeit von Vorhersagen zu verbessern. Dieser Prozess lässt sich gut verstehen, wenn man ihn folgendermaßen vereinfacht darstellt: Die Methode, mit der der Roboter aus seinen Fehlern lernt, bezeichnet man als Backpropagation. In einfacher Erklärung läuft dies wie folgt ab: 2. Wenn die Antwort falsch ist, vergleicht das Netzwerk, was es gesagt hat und was die richtige Antwort gewesen wäre. Daraus wird berechnet, wie groß der Fehler ist. 3. Nun beginnt die eigentliche Bachpropagation: Es wird an der Ausgabe begonnen, also bei der letzten Entscheidung. Der Fehler wird zurückverfolgt bis zum Anfang mit der Frage, welche Verbindung oder Entscheidung wie stark am Fehler beteiligt war. Dies erfolgt mithilfe eines mathematischen Verfahrens namens "Gradientenabstieg". 4. Das Netzwerk lernt aus seinem Fehler, indem die Verbindungen, die für den Fehler verantwortlich sind, immer wieder angepasst werden. Je mehr sie beteiligt waren, umso stärker die Anpassung. Diese Verbindungen werden als "Gewichte" bezeichnet. Mit diesem Verfahren werden Fehler im Netzwerk erkannt und schrittweise korrigiert mit dem Ziel, dass das System in der Lösung der Aufgabe besser wird. Es wird trainiert. Quellen: | |
BiasBias (Voreingenommenheit) Bias, auf Deutsch „Voreingenommenheit“ oder „Verzerrung“, bezeichnet in der Künstlichen Intelligenz (KI) systematische Fehler oder einseitige Tendenzen in den Ergebnissen eines Modells. Solche Verzerrungen entstehen häufig schon beim Sammeln und Verarbeiten von Trainingsdaten. Wenn ein KI-System auf Daten trainiert wird, die bestimmte Gruppen bevorzugen oder benachteiligen, übernimmt die KI diese Muster – oft unbemerkt. Ein einfaches Beispiel: Wird ein KI-Modell zur Gesichtserkennung hauptsächlich mit Bildern von Menschen mit heller Hautfarbe trainiert, erkennt es später Gesichter mit dunkler Haut weniger zuverlässig. Dies liegt nicht an einem technischen Fehler, sondern an der ungleichmäßigen Repräsentation in den Daten. Bias kann auch aus gesellschaftlichen Vorurteilen entstehen. Wenn Texte aus dem Internet als Trainingsdaten verwendet werden, kann die KI stereotype oder diskriminierende Aussagen lernen und wiedergeben – nicht weil sie „vorurteilsvoll“ ist, sondern weil sie aus Daten lernt, die solche Muster enthalten. Es gibt verschiedene Arten von Bias: Datenbias (einseitige oder fehlerhafte Daten), Algorithmischer Bias (Verzerrung durch mathematische Verfahren), und kognitiver Bias (menschliche Denkfehler, die sich in der Modellentwicklung widerspiegeln). Bias in KI zu erkennen und zu mindern ist entscheidend, um faire, vertrauenswürdige und ethisch vertretbare Systeme zu entwickeln. Forschende und Entwickler arbeiten deshalb daran, Modelle transparenter zu machen und sie mit vielfältigeren, besser ausbalancierten Daten zu trainieren. Quellenangabe: | ||
C |
---|
Cloudbasierte KIsGlossarbeitrag: Funktionsweise von cloudbasierten Künstlichen Intelligenzen (KIs) Cloudbasierte Künstliche Intelligenzen (KIs) sind Programme, die intelligente Aufgaben wie Textverstehen, Bilderkennung oder Sprachverarbeitung ausführen – und zwar nicht lokal auf dem eigenen Gerät, sondern über das Internet („in der Cloud“). Was bedeutet „cloudbasiert“?Die Cloud ist ein Netzwerk von Rechenzentren, das Rechenleistung und Speicherplatz bereitstellt. Wenn eine KI „cloudbasiert“ ist, läuft sie also auf leistungsstarken Servern, die oft weit entfernt stehen – zum Beispiel in Rechenzentren von Anbietern wie Amazon Web Services, Google Cloud oder Microsoft Azure. Wie funktioniert das?
Warum wird KI in der Cloud betrieben?
Vorteile:Kein starker Computer notwendig Herausforderungen:Internetverbindung erforderlich Fazit: https://www.cloudcomputing-insider.de/was-ist-cloudbasierte-ki-a-07dfe98b4de161308de81814f9470952/ | |
D |
---|
Deep LearningDeep Learning (Tiefes Lernen)
Grundprinzip: Wichtige Methoden im Deep Learning:
Anwendungsbereiche: 1. Gesichtserkennung auf dem Smartphone Convolutional Neural Networks (CNNs) 2. Sprachassistenten wie Alexa, Siri und Google Assistant Diese Systeme nutzen Recurrent Neural Networks (RNNs) oder moderne Transformermodelle, um Sprache zu 3. Medizinische Diagnostik (z. B. Hautkrebs-Früherkennung) KI-Systeme können auf Basis von Millionen Bildern lernen, Tumore oder Veränderungen in Röntgen-, MRT- oder CT-Bildern 4. Betrugserkennung im Online-Banking Deep Learning erkennt ungewöhnliche Muster in Transaktionen. Ein antrainiertes neuronales Netz kann Betrugsversuche in 5. Kreative KI (z. B. Bild- und Musikgenerierung) Mit Generative Adversarial Networks (GANs) können realistische Bilder, Musikstücke oder sogar Gemälde erschaffen werden. Fazit: Quelle: www.chatgpt.com | ||
E |
---|
G |
---|
General AI🤖 Was ist „General AI“?General AI oder auf Deutsch Allgemeine Künstliche Intelligenz ist eine Art von KI, die so denken, lernen und handeln kann wie ein Mensch – und zwar in ganz verschiedenen Bereichen, nicht nur in einem einzigen. Man nennt sie auch manchmal „starke KI“. 🧠 Vergleich: General AI vs. heutige KI (z. B. ChatGPT)
🎯 Ziel von General AIDas Ziel von General AI ist es, eine Maschine zu bauen, die:
❗ Gibt es General AI schon?Nein, noch nicht. 🔍 Warum ist General AI so spannend (und auch umstritten)?
Deshalb ist General AI ein wichtiges Thema in Technik, Ethik und Politik. Quelle und Erzeugung durch ChatGPT | |||||||||
Geschichte der KIDie Entwicklung der Künstlichen Intelligenz (KI) reicht weit zurück. Bereits Aristoteles (384–322 v. Chr.) legte mit seiner formalen Logik und dem Syllogismus Grundlagen für deduktives Denken. Im Mittelalter entwickelte Ramon Llull (1232–1315) mit der Ars magna ein Kombinationssystem als Vorläufer symbolischer KI (Wikipedia). In der Neuzeit trugen René Descartes (1596–1650) mit der mathesis universalis und Gottfried Wilhelm Leibniz (1646–1716) mit der characteristica universalis sowie dem Calculus ratiocinator maßgeblich zur Idee eines formalen Denkens bei (Wikipedia). Im 18. und 19. Jahrhundert faszinierten mechanische Automaten wie der „Schachtürke“ (1770) von Wolfgang von Kempelen. Charles Babbage (1791–1871) entwarf mit der Analytical Engine eine programmierbare Rechenmaschine. 1914 präsentierte Leonardo Torres y Quevedo mit El Ajedrecista den ersten funktionierenden Schachautomaten (DIE WELT). Mathematische Grundlagen lieferten George Boole (1854) mit der booleschen Algebra, Gottlob Frege (1879) mit der Begriffsschrift und Bertrand Russell & Alfred North Whitehead (1910–13) mit den Principia Mathematica. Kurt Gödel (1931) bewies die Grenzen formaler Systeme, und Alan Turing (1936) legte mit der Turing-Maschine das Fundament der Informatik (Wikipedia, DIE WELT, Computerwoche). 1950 schlug Turing den Turing-Test vor. 1956 begründete die Dartmouth Conference unter John McCarthy offiziell die KI-Forschung (Wikipedia, HNU). Meilensteine folgten: ELIZA (1966), MYCIN (1972), Deep Blue (1997), IBM Watson (2011) und AlphaGo (2016) (mebis.bycs.de, Bosch Global, DIE WELT). Moderne Fortschritte wie Backpropagation (1986), Generative Adversarial Networks (2014) und GPT-3 (2020) markieren den Aufstieg des Deep Learning (IBM). Quellen: Wikipedia, DIE WELT, Bosch Global, IBM, Computerwoche, HNU, mebis.bycs.de, CIO DE, KI Experten.
| ||||||||||||||||||||||||||||||||||||||||||||
H |
---|
Halluzination (KI)Definition und Bedeutung: Praxisrelevanz: Ursachen und Gegenmaßnahmen: Einordnung im KI-Kontext: Quellen: Wikipedia, https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence) ACM Computing Surveys, https://dl.acm.org/journal/csur | |
K |
---|
KonfabulationIn der Welt der Künstlichen Intelligenz bezeichnet Konfabulation das Phänomen, bei dem ein Sprachmodell wie ChatGPT scheinbar überzeugende, aber faktisch falsche Informationen erzeugt. Dieser Effekt ist vergleichbar mit dem menschlichen Gehirn, das bei Gedächtnislücken manchmal Erinnerungen „erfindet“, ohne dass die Person absichtlich lügt. Sprachmodelle wie GPT-4 basieren auf statistischer Wahrscheinlichkeitsrechnung: Sie analysieren große Mengen an Textdaten und sagen vorher, welches Wort mit hoher Wahrscheinlichkeit als nächstes kommt. Dabei entsteht Sprache, die grammatisch korrekt und inhaltlich plausibel wirkt – auch wenn sie nicht auf überprüfbaren Fakten beruht. Wenn das Modell auf unklare, mehrdeutige oder sehr spezifische Fragen stößt, für die es keine klaren Daten hat, kann es anfangen zu „halluzinieren“ – also Inhalte zu generieren, die erfunden oder vermischt sind. Das nennt man in der KI auch „Konfabulation“. Anders als bei Software mit festen Regeln gibt es hier kein festes Wissensregister – das Modell "füllt Lücken", wie es ein Mensch tun würde. Beispiel:
Warum ist das problematisch? Wie kann man dem begegnen?
Fazit: | ||
L |
---|
Large Language Models (LLMs)
Technisch basieren LLMs auf tiefen neuronalen Netzen, insbesondere der sogenannten Transformer-Architektur. Diese Netzwerke bestehen aus vielen Schichten künstlicher Neuronen, die Informationen verarbeiten und gewichten. Ein zentrales Element ist der Aufmerksamkeitsmechanismus (Attention), der es dem Modell ermöglicht, relevante Teile eines Textes gezielt zu berücksichtigen. Ein wesentliches Funktionsprinzip von LLMs ist die Wahrscheinlichkeitsberechnung: Das Modell sagt vorher, welches Wort (bzw. Token) mit der höchsten Wahrscheinlichkeit als nächstes folgt. Diese Vorhersage basiert auf dem bisherigen Kontext und wird durch eine Wahrscheinlichkeitsverteilung über den gesamten Wortschatz dargestellt. So entstehen flüssige, kontextbezogene Texte. LLMs können sowohl allgemeine Aufgaben wie Textgenerierung, Übersetzung oder Zusammenfassung übernehmen als auch für spezifische Anwendungsfälle angepasst werden, etwa in der Medizin, im Recht oder im Kundenservice. Während allgemeine Modelle breit einsetzbar sind, bieten spezialisierte Modelle oft höhere Genauigkeit in ihrem jeweiligen Fachgebiet. Trotz ihrer Vielseitigkeit bringen LLMs auch Herausforderungen mit sich – etwa hohe Rechenkosten, potenzielle Verzerrungen in den Trainingsdaten und ethische Fragen zur Transparenz und Verantwortung. Quellen: | ||