Detaillierte Informationen zum Seminar
Inhalte:
Grundlagen & Architektur moderner LLMs
- Überblick Transformer, Kontext, Tokenisierung
- Prompt Design (Zero-/Few-Shot, System Prompts)
- Unterschiede zu klassischen NLP-Verfahren
- Hands-on: effektive Prompts entwickeln
Retrieval-Augmented Generation (RAG) Essentials
- Rolle von Embeddings und Vektorsuche
- Praktische Arbeit mit FAISS, ChromaDB
- Integration externer Quellen über LangChain / LlamaIndex
- Aufbau einer einfachen RAG-Pipeline
Erweiterte RAG-Pipelines in der Praxis
- Datenvorbereitung & semantische Abfragen
- Tool-Ketten in LangChain
- Query-Antwort-System mit API-Anbindung
- Best Practices: Trennung von Modell- und Wissenskomponente
LLMOps – Deployment & Infrastruktur
- Deployment-Strategien: Hosted vs. On-Premise
- Containerisierung (Docker), Frameworks (FastAPI, BentoML)
- Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
- Prompt- & Model-Management
LLMOps – Governance, Security & Skalierung
- Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
- Kostenkontrolle: Token-Tracking, Caching, Request-Management
- CI/CD für LLM-Anwendungen
Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails
Dauer/zeitlicher Ablauf:
5 Tage
Ziele/Bildungsabschluss:
Siehe Beschreibung und Inhalt.
Teilnahmevoraussetzungen:
Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.
Material:
Im Preis enthalten sind PC-COLLEGE - Zertifikat, technische Beratung und Kursmaterial.
Förderung:
Bildungsscheck, andere auf Anfrage
Zielgruppe:
Nach dem Kurs können Sie LLMs gezielt für produktive Anwendungen einsetzen, eigene RAG-Lösungen bauen und die zugrunde liegende Infrastruktur sicher und effizient verwalten.
Seminarkennung:
LMK260601-ONL