Hallo zusammen,
hier ist meine Reflektion des ersten Moduls:
Was war neu für mich?
Obwohl ich bereits regelmäßig mit KI-Tools wie ChatGPT, Claude, Gemini etc. arbeite, war es spannend zu sehen, wie systematisch sich die Promptgestaltung tatsächlich gliedern lässt. Auch die Tatsache, dass OpenAI meine Daten für das Training nutzt war mir nicht bewußt. Daher war es gut zu lernen, wie man das Ausschalten kann.
Habe ich offene Fragen, die sich zum Thema des Moduls noch nicht geklärt haben?
Ich frage mich, wie man komplexe Prompts in der Praxis modular aufbauen kann – also z. B. in einem Workflow mit mehreren Etappen oder für verschiedene Zielgruppen. Gibt es Best Practices, wie man solche Prompts dokumentiert oder versioniert? Ich arbeite gerade in meinem Unternhemen an einer Prompt-Gallery, daher wäre es gut zu wissen, wie man sowas idealerweise aufbaut.
Wo seid ihr beim Ausprobieren an eure Grenzen gestoßen?
Ich habe gemerkt, dass die Balance zwischen Klarheit, Präzision und dem gewünschten Stil im Prompt keine einfache Sache ist. Besonders bei kreativen Aufgaben kann eine kleine Änderung große Auswirkungen haben. Das erfordert Übung und Fingerspitzengefühl. Auch ist es spannend zu sehen, wie unterschiedliche die Reaktionen der LLMs auf ein und denselben Prompt sein können. Also Claude gibt z.B. ganz andere Antworten wie ChatGPT. Die ähneln sich zwar teilweise, manchmal liegen die aber auch gewaltig auseinander.
Was könnt ihr aus diesem Modul für eure tägliche Arbeit mitnehmen?
Ich nehme mit, dass gutes Prompting nicht nur technisches Wissen, sondern auch und gerade logisches Denken und sprachliches Feingefühl erfordert. Für meine Rolle in der Qualifizierung kann ich die Methoden nutzen, um Lerninhalte effizienter aufzubereiten, Use Cases zu strukturieren und Teams dabei zu unterstützen, KI gewinnbringend einzusetzen.
Einen schönen Sonntag noch und bis morgen!
VG Markus