Large Language Models (LLMs)


Large Language Models
(LLMs) sind KI-Modelle, die auf der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) basieren. Sie gehören zur Klasse der Foundation Models und sind in der Lage, Sprache zu verstehen, zu analysieren und zu generieren. Grundlage dafür ist das Training auf riesigen Textmengen, wodurch sie Muster und Bedeutungen in Sprache erkennen können.

Technisch basieren LLMs auf tiefen neuronalen Netzen, insbesondere der sogenannten Transformer-Architektur. Diese Netzwerke bestehen aus vielen Schichten künstlicher Neuronen, die Informationen verarbeiten und gewichten. Ein zentrales Element ist der Aufmerksamkeitsmechanismus (Attention), der es dem Modell ermöglicht, relevante Teile eines Textes gezielt zu berücksichtigen.

Ein wesentliches Funktionsprinzip von LLMs ist die Wahrscheinlichkeitsberechnung: Das Modell sagt vorher, welches Wort (bzw. Token) mit der höchsten Wahrscheinlichkeit als nächstes folgt. Diese Vorhersage basiert auf dem bisherigen Kontext und wird durch eine Wahrscheinlichkeitsverteilung über den gesamten Wortschatz dargestellt. So entstehen flüssige, kontextbezogene Texte.

LLMs können sowohl allgemeine Aufgaben wie Textgenerierung, Übersetzung oder Zusammenfassung übernehmen als auch für spezifische Anwendungsfälle angepasst werden, etwa in der Medizin, im Recht oder im Kundenservice. Während allgemeine Modelle breit einsetzbar sind, bieten spezialisierte Modelle oft höhere Genauigkeit in ihrem jeweiligen Fachgebiet.

Trotz ihrer Vielseitigkeit bringen LLMs auch Herausforderungen mit sich – etwa hohe Rechenkosten, potenzielle Verzerrungen in den Trainingsdaten und ethische Fragen zur Transparenz und Verantwortung.

Quellen:

» E-tivity 1.2: Wissensglossar