Hier kommt meine Reflexion für Modul 6. Grundsätzlich haben mir die Vorstellung und die Tools gut gefallen. Sind sehr nützlich! Ich selbst habe vor nicht all zu langer Zeit mehrere Kurse im Data Analytics Umfeld besucht. Jetzt zu sehen, wie schnell man mit einem KI Tool Auswertung erzeugen kann die mich Stunden gekostet hätten ist faszinierend und erschreckend zugleich.
Was war neu?
Neu war für mich die klare Arbeitsteilung zwischen Tools: Julius AI als Turbo für die Ersthypothesen (Pattern-Erkennung, “Was fällt auf?”), ChatGPT als Sparringspartner für Szenarioentwicklung, Argumentation und Validieren und Tableau für exploratives Storytelling. Besonders hilfreich: Prompt-Techniken (Rollen, Constraints, Datenkontext) und die Idee, AI-Outputs wie jede Analyse zu validieren.
Offene Fragen
Mich beschäftigt, wie wir LLM-Analysen robust in den Governance-Prozess integrieren können. D.h. mit anderen Worten: automatisierte Plausibilitätschecks, Bias/Hallucination-Detection, Versionierung von Prompts, Umgang mit PII/Datenschutz und Kostenkontrolle bei größeren Pipelines. Ebenso: Wann ist kann ich diese Tools überhaupt im Arbeitsalltag nutzen? Insbesondere bei den Cloud-Tools ist das mit numerischen Daten so eine Sache. Ich kenne kaum Zahlen, die nicht irgendwie vertraulich sind. Daher fallen die meisten dieser Tools erstmal für den unmittelbaren Gebrauch aus.
Grenzen beim Ausprobieren
Grenzen spürte ich bei inkonsistenten Auswertungen. LLMs lieferten teils überzeugende Begründungen zu falschen Zahlen – ohne Gegencheck ist das riskant wenn man das in die Arbeitsrealität überträgt. Ich persönlich bin ein Fan von Valiedierungsketten, d.h. ich lasse das Ergebnis eines LLMs (bzw. Tools) von einem andern validieren.
Nutzen für den Arbeitsalltag
Ich nehme einen konkreten Workflow mit:
Hypothese skizzieren (Frage, KPI, Zeitraum).
Julius/ChatGPT für schnelle EDA nutzen (Trends/Anomalien, erste Visuals).
Story in Tableau verdichten (klare Botschaft, Annotationen, Filter).
Qualitätssicherung mit Checkliste: Datenquelle, Annahmen, Replikation, Zeitstempel, Unsicherheiten.
- Experimentieren: z.B. A/B-Tests definieren, ROAS/Incrementality messen, Prompt-Library pflegen
6. Validieren & Finalisieren
Fazit: KI beschleunigt mein Denken und Analysieren massiv. Wichtig ist und bleibt aber die Validieren der Daten. Nicht alles, was die KI "ausspuckt" ist auch wirklich nutzbar. Daher ist es gerade bei Analysen essentiell eine saubere Prüfung vorzunehmen. Das lässt sich letztlich auch wieder gut mit LLMs vornehmen. Genau dieses Zusammenspiel ist mein größter Lerngewinn.