KI-Tool Expert (IHK) Berufsbegleitender Onlinekurs Start: 16.05.2025
Ein gemeinsames Wissensglossar entwickeln
Ob in der Wissenschaft, Technik oder im beruflichen Alltag – Fachbegriffe helfen dabei, komplexe Sachverhalte zu strukturieren und Missverständnisse zu vermeiden. Gerade wenn wir mit neuen Themen oder Disziplinen in Berührung kommen, ist es wichtig, unbekannte Begriffe gezielt zu definieren.
Durch das Erstellen eines gemeinsamen Wissensglossars tragen wir dazu bei, unser Verständnis zu vertiefen und unser Wissen strukturiert zu erweitern. Indem wir einen Fachbegriff, den wir zuvor noch nicht kannten, recherchieren und definieren, fördern wir nicht nur unser eigenes Lernen, sondern ermöglichen es auch anderen, von unserem Wissen zu profitieren.
Aufgabe: Erstellt einen Eintrag im Wissensglossar, indem ihr einen ausgewählten Fachbegriff passend zum aktuellen Modul definiert. Bitte gebt am Ende eure Quellen an.
Grundlage für diese Aufgabe ist die Dozentenpräsentation, welche ihr in den "Materialien zu Modul 5" findet. Bitte beachtet bei der Bearbeitung der Aufgabe zudem die Mindest- bzw. Höchstwortanzahl: mindestens 200 Wörter, höchstens 400 Wörter.
Feedback: In dieser Aufgabe ist kein Peer-Feedback erforderlich.
@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle
C |
---|
CLIP (Contrastive Language–Image Pretraining)CLIP ist ein von OpenAI entwickeltes KI-Modell, das Texte und Bilder gemeinsam versteht, indem es sie in einen gemeinsamen semantischen Raum übersetzt. Der Name CLIP steht für Contrastive Language–Image Pretraining und beschreibt die zentrale Trainingsmethode des Modells: Mittels kontrastivem Lernen wird CLIP darauf trainiert, die inhaltliche Übereinstimmung zwischen einem Bild und einer Textbeschreibung zu erkennen. Dabei erhält das Modell eine Vielzahl von Bild-Text-Paaren und lernt, welche Beschreibungen zu welchen Bildern passen und welche nicht. Ziel ist es, dass das Modell selbst bei bisher ungesehenen Daten relevante Verbindungen zwischen visuellen und sprachlichen Inhalten herstellen kann. Das Besondere an CLIP ist seine Generalisierungsfähigkeit. Während viele KI-Modelle speziell für eine einzelne Aufgabe trainiert werden (z. B. Objekterkennung), kann CLIP viele Aufgaben „zero-shot“ lösen, also ohne spezifisches Training für die jeweilige Anwendung. Dazu gehören z. B. Bildklassifikation, Ähnlichkeitssuche, visuelle Fragebeantwortung oder sogar die Steuerung multimodaler Systeme. Die Flexibilität des Modells beruht auf der gemeinsamen Repräsentation von Bild- und Textdaten in einem mehrdimensionalen Raum, in dem Ähnlichkeiten über Vektorabstände messbar sind. CLIP hat die Forschung und Entwicklung im Bereich der multimodalen künstlichen Intelligenz erheblich beeinflusst. Es gilt als Meilenstein, weil es zeigt, dass große Mengen an unstrukturierten, im Internet verfügbaren Daten effizient genutzt werden können, um leistungsfähige Modelle zu trainieren, die keine feine manuelle Annotation erfordern. Damit bietet CLIP eine Grundlage für viele moderne Anwendungen, etwa in der Bilderkennung, der Medienanalyse oder der Mensch-Maschine-Interaktion. Quelle: OpenAI, CLIP – Definition für ein Glossar, ChatGPT, 2025. | |