Seminare
Seminare

Große Sprachmodelle personalisieren und erweitern

Seminar - GFU Cyrus AG

Ziel dieses Kurses ist es, den Teilnehmern das notwendige Wissen und die praktischen Fähigkeiten zu vermitteln, um große Sprachmodelle (LLMs) gezielt auf individuelle Anwendungsfälle anzupassen. Sie lernen, wie Fine-Tuning effektiv durchgeführt wird - von der Auswahl geeigneter Modelle über die Datenaufbereitung bis zur Modelloptimierung. Besonderes Augenmerk liegt auf ressourcenschonenden Verfahren wie PEFT und LoRA, die auch ohne High-End-Hardware produktive Ergebnisse liefern.

Darüber hinaus verstehen die Teilnehmenden, wie sie RAG-Architekturen einsetzen, um externe Wissensquellen mit LLMs zu verknüpfen. Sie lernen, wie Dokumente vorbereitet, Vektorindizes erstellt und Retrieval-Pipelines aufgebaut werden. Die Kombination aus Fine-Tuning und RAG befähigt sie, LLMs so zu personalisieren, dass diese präzise, kontextrelevante und aktuelle Informationen liefern.

Ein weiteres Ziel ist es, den Teilnehmenden praxisrelevante Best Practices für die Evaluierung und den produktiven Einsatz von angepassten LLMs zu vermitteln. Sie werden in die Lage versetzt, eigene Projekte eigenständig zu planen und umzusetzen - sowohl in Cloud-Umgebungen als auch lokal. Nach dem Kurs sind sie in der Lage, Fine-Tuning- und RAG-Methoden sicher anzuwenden und daraus robuste, individuelle LLM-Anwendungen zu entwickeln.
Termin Ort Preis*
02.03.2026- 04.03.2026 online 2.296,70 €
02.03.2026- 04.03.2026 Köln 2.296,70 €
07.09.2026- 09.09.2026 online 2.296,70 €
07.09.2026- 09.09.2026 Köln 2.296,70 €

Alle Termine anzeigen

*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:
  • Grundlagen von Large Language Models und Einführung in die Personalisierung
    • Theorie:
      • Was sind Large Language Models/Transformer? Überblick über Architektur, Funktionsweise und bekannte Modelle (GPT, Llama, Mistral)
      • Unterschiede zwischen generischen und spezialisierten Modellen
      • Einführung in die Personalisierung: Fine-Tuning, Prompt Engineering und Parameter-Effizienztechniken (PEFT, LoRA)

    • Praxis:
      • Fine-Tuning eines LLM auf einer Beispiel-Domäne mit Hugging Face
      • Experimentieren mit Prompts, um die Ausgabe für spezifische Aufgaben zu optimieren

    • Ziel:
      • Verstehen, wie LLMs arbeiten und wie sie durch einfache Anpassungen personalisiert werden können


  • Datenintegration und Retrieval-Augmented Generation (RAG)
    • Theorie:
      • Warum Datenintegration? Nutzung eigener Wissensquellen zur Erweiterung von LLMs
      • Grundlagen von RAG: Aufbau von Vektordatenbanken und deren Einsatz mit LLMs
      • Technische Einführung in Tools wie LangChain, ChromaDB oder Pinecone

    • Praxis:
      • Aufbau einer Vektordatenbank und Anbindung eines LLMs
      • Implementierung einer Frage-Antwort-Anwendung auf Basis eigener Dokumente

    • Ziel:
      • Die Teilnehmenden lernen, wie sie eigene Daten mit einem LLM nutzen können, um spezifische Anfragen zu beantworten


  • Lokale Nutzung von LLMs
    • Theorie:
      • Vorteile der lokalen Nutzung: Datenschutz, Kostenkontrolle und Flexibilität
      • Überblick über Tools und Frameworks für lokale LLMs (z. B. Ollama, LM-Studio)
      • Hardwareanforderungen und Optimierungsmöglichkeiten für lokale Deployments

    • Praxis:
      • Einrichtung eines lokalen LLMs auf dem eigenen Rechner oder Server
      • Vergleich zwischen Cloud- und lokalen Modellen anhand von Praxisbeispielen

    • Ziel:
      • Teilnehmende können ein LLM lokal installieren und betreiben, um datengetriebene Projekte unabhängig und sicher umzusetzen


Dauer/zeitlicher Ablauf:
3 Tage
Zielgruppe:

Das Seminar richtet sich an Entwicklerinnen und Entwickler, Data Scientists, Machine Learning Engineers und technische Fachkräfte, die LLMs zielgerichtet für unternehmensspezifische Anwendungen personalisieren möchten.

Besonders profitieren Teilnehmende aus den Bereichen KI-Entwicklung, Data Engineering, Wissensmanagement, Kundenservice, Forschung oder technische Produktentwicklung, die ihre eigenen Datenquellen mit LLMs kombinieren und produktiv einsetzen wollen.



Teilnahmevoraussetzungen


  • Sie benötigen Grundkenntnisse in Python
    , einschließlich sicherem Umgang mit Jupyter Notebooks oder Google Colab sowie Erfahrung mit Bibliotheken wie pandas.
  • Sie bringen allgemeine Kenntnisse im Bereich Künstliche Intelligenz und Machine Learning mit - inklusive Verständnis für Trainingsprozesse, Evaluierung und Deployment.
  • Begriffe wie Embeddings
    , Tokenization oder Transformermodelle sollten Ihnen vertraut sein.
Seminarkennung:
89583
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha