Webinar - Haufe Akademie GmbH & Co. KG
Termin | Ort | Preis* |
---|---|---|
20.10.2025- 22.10.2025 | online | 2.249,10 € |
20.01.2026- 22.01.2026 | online | 2.249,10 € |
22.04.2026- 24.04.2026 | online | 2.249,10 € |
1. Technische Grundlagen generativer Sprachmodelle
2. LLMs per API und Cloud-Integration
3. Open-Source-Sprachmodelle einsetzen
4. Best Practices in der LLM-Entwicklung
5. LLM anpassen: RAG und Feintuning
6. Fortgeschrittene Konzepte und Praxis
Überblick über Modelle und Technologien:Du verschaffst Dir einen Überblick und Detailwissen über die verschiedenen Ansätze in der Entwicklung von KI-Lösungen – mit Open-Source- oder proprietären Modellen, per API oder lokal gehostet, mit Finetuning oder RAG, mit oder ohne Cloud-Services.
Praxisreife Assistenten entwickeln: Entlang der Vermittlung von Grundlagen und Technik entwickelst du in Praxisübungen selbst an einem KI-Assistenten.
Fundierte Technologie-Entscheidungen treffen: Du vergleichst Public-API, Azure OpenAI und eigene GPU-Cluster im Hinblick auf Kosten, Latenz und Kontrolle.
Skalieren ohne Überraschungen: Durch Quantisierung, Sicherheitsmaßnahmen und lokales Hosting behältst Du Betriebskosten und Risiken im Griff.
Unterstützung beim Lerntransfer: Cloud-Lab, Quellcode, Jupyter Notebooks und Deploy-Blueprint sichern den Transfer in deinen Arbeitsalltag.
Software-Entwickler:innen, ML-Engineers, Data Scientists, Solution-Architekt:innen und IT-Berater:innen, die KI-Assistenten konzipieren, implementieren und betreiben möchten.
Python-Grundkenntnisse werden vorausgesetzt, da Beispiele auf Code-Basis analysiert und programmiert werden. Bestehendes Data-Science-Wissen ist hilfreich, aber nicht zwingend erforderlich.