KI-Tool Expert (IHK) Berufsbegleitender Onlinekurs Start: 16.05.2025
Ein gemeinsames Wissensglossar entwickeln
Ob in der Wissenschaft, Technik oder im beruflichen Alltag – Fachbegriffe helfen dabei, komplexe Sachverhalte zu strukturieren und Missverständnisse zu vermeiden. Gerade wenn wir mit neuen Themen oder Disziplinen in Berührung kommen, ist es wichtig, unbekannte Begriffe gezielt zu definieren.
Durch das Erstellen eines gemeinsamen Wissensglossars tragen wir dazu bei, unser Verständnis zu vertiefen und unser Wissen strukturiert zu erweitern. Indem wir einen Fachbegriff, den wir zuvor noch nicht kannten, recherchieren und definieren, fördern wir nicht nur unser eigenes Lernen, sondern ermöglichen es auch anderen, von unserem Wissen zu profitieren.
Aufgabe: Erstellt einen Eintrag im Wissensglossar, indem ihr einen ausgewählten Fachbegriff passend zum aktuellen Modul definiert. Bitte gebt am Ende eure Quellen an.
Grundlage für diese Aufgabe ist die Dozentenpräsentation, welche ihr in den "Materialien zu Modul 2" findet. Bitte beachtet bei der Bearbeitung der Aufgabe zudem die Mindest- bzw. Höchstwortanzahl: mindestens 200 Wörter, höchstens 400 Wörter.
Feedback: In dieser Aufgabe ist kein Peer-Feedback erforderlich.
@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle
T |
---|
TokenToken in der Funktionsweise von ChatGPT In der Welt von ChatGPT und anderen KI-Sprachmodellen spielt der Begriff Token eine zentrale Rolle. Ein Token ist dabei eine kleinste sinnvolle Einheit von Text, die das Modell verarbeitet. Je nach Sprache und Inhalt kann ein Token ein einzelner Buchstabe, ein Wort oder sogar nur ein Teil eines Wortes sein. Zum Beispiel kann das Wort „Haus“ ein einzelnes Token sein, während ein komplexeres oder zusammengesetztes Wort in mehrere Tokens zerlegt wird. ChatGPT „denkt“ nicht in vollständigen Sätzen, sondern zerlegt Eingaben zunächst in Tokens. Diese Token sind sozusagen die „Bausteine“, auf deren Grundlage das Modell versteht, was gesagt wird, und passende Antworten generiert. Die Umwandlung von Text in Token geschieht mithilfe eines Tokenizers – einer Art Übersetzer, der Wörter in eine für das Modell lesbare Form überführt. Jedes Token wird intern durch eine Zahl dargestellt, die dem Modell hilft, den Zusammenhang und die Bedeutung zu erfassen. Die Anzahl der verwendeten Token ist für die Funktionsweise von ChatGPT besonders wichtig. Zum einen bestimmt sie, wie viel Information das Modell auf einmal verarbeiten kann – das sogenannte Kontextfenster ist begrenzt, sodass nur eine bestimmte Anzahl von Token gleichzeitig berücksichtigt werden kann. Zum anderen beeinflusst die Tokenanzahl auch die Kosten und die Geschwindigkeit der Verarbeitung. In praktischen Anwendungen wie Chatbots oder automatisierten Textsystemen ist es daher wichtig, sparsam mit Tokens umzugehen, um effizient zu bleiben. Zusammenfassend lässt sich sagen, dass Token eine Art „Sprache der Maschine“ sind, in die menschlicher Text übersetzt wird. Sie bilden die Grundlage für das Verständnis, die Analyse und die Antwortgenerierung eines KI-Modells wie ChatGPT. Ohne Token wäre keine sinnvolle Kommunikation zwischen Mensch und Maschine möglich – sie sind also essenziell für das Funktionieren moderner Sprach-KI. Wer die Rolle von Token versteht, gewinnt ein besseres Verständnis dafür, wie KI-Modelle Texte verarbeiten und auf unsere Fragen und Eingaben reagieren. Quelle: token-guide / ChatGPT | |