KI-Tool Expert (IHK) Berufsbegleitender Onlinekurs Start: 16.05.2025
Ein gemeinsames Wissensglossar entwickeln
Ob in der Wissenschaft, Technik oder im beruflichen Alltag – Fachbegriffe helfen dabei, komplexe Sachverhalte zu strukturieren und Missverständnisse zu vermeiden. Gerade wenn wir mit neuen Themen oder Disziplinen in Berührung kommen, ist es wichtig, unbekannte Begriffe gezielt zu definieren.
Durch das Erstellen eines gemeinsamen Wissensglossars tragen wir dazu bei, unser Verständnis zu vertiefen und unser Wissen strukturiert zu erweitern. Indem wir einen Fachbegriff, den wir zuvor noch nicht kannten, recherchieren und definieren, fördern wir nicht nur unser eigenes Lernen, sondern ermöglichen es auch anderen, von unserem Wissen zu profitieren.
Aufgabe: Erstellt einen Eintrag im Wissensglossar, indem ihr einen ausgewählten Fachbegriff passend zum aktuellen Modul definiert. Bitte gebt am Ende eure Quellen an.
Grundlage für diese Aufgabe ist die Dozentenpräsentation, welche ihr in den "Materialien zu Modul 2" findet. Bitte beachtet bei der Bearbeitung der Aufgabe zudem die Mindest- bzw. Höchstwortanzahl: mindestens 200 Wörter, höchstens 400 Wörter.
Feedback: In dieser Aufgabe ist kein Peer-Feedback erforderlich.
@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle
L |
---|
Lokale LLM-ModelleEin lokales LLM (Large Language Model) ist ein Sprachmodell, das direkt auf der Hardware des Nutzers – also dem eigenen Computer, Laptop oder Server – ausgeführt wird. Dies steht im klaren Gegensatz zu Cloud-basierten LLMs (wie z.B. ChatGPT von OpenAI oder Gemini von Google), bei denen die Anfragen über das Internet an die Server der Anbieter gesendet und dort verarbeitet werden. Die Kernidee lokaler LLMs ist es, dem Nutzer mehr Kontrolle und Autonomie über die KI-Nutzung zu geben. Die wichtigsten Vorteile sind:
Die Herausforderungen beim Einsatz lokaler LLMs liegen vor allem in den Hardware-Anforderungen. Leistungsstarke Modelle benötigen oft eine potente Grafikkarte (GPU) mit viel VRAM, ausreichend Arbeitsspeicher (RAM) und Speicherplatz. Zudem kann die Einrichtung und Wartung technisches Verständnis erfordern. Die Leistungsfähigkeit der größten, öffentlich verfügbaren lokalen Modelle erreicht oft noch nicht ganz das Niveau der Spitzenmodelle der großen Cloud-Anbieter, aber die Entwicklung schreitet rasant voran. Technisch gesehen lädt man eine Modelldatei (oft mehrere Gigabyte groß) herunter und nutzt spezielle Software (z.B. Ollama, LM Studio, text-generation-webui), um das Modell zu laden und damit zu interagieren. Zusammenfassend ermöglichen lokale LLMs einen datenschutzfreundlicheren, potenziell kostengünstigeren und kontrollierbareren Zugang zu fortschrittlicher Sprach-KI, erfordern aber entsprechende Hardware und mitunter technisches Know-how. Quelle: Google AI Studio | |