Seminare
Seminare

LLM Security: Injections erkennen und abwehren

Seminar - PROKODA GmbH

LLM Security: Injections erkennen und abwehren
Termin Ort Preis*
09.04.2026- 10.04.2026 online 1.773,10 €
09.04.2026- 10.04.2026 München 1.773,10 €
02.07.2026- 03.07.2026 online 1.773,10 €
02.07.2026- 03.07.2026 München 1.773,10 €

Alle Termine anzeigen

*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:
  • Grundlagen der LLM-Architektur und Angriffsflächen
    • Funktionsweise von Transformern und Tokenizern aus Sicherheitsperspektive
    • Unterschiede zwischen klassischer AppSec und LLM-Security
    • Überblick über die OWASP Top 10 für Large Language Models
    • Lifecycle einer KI-Anwendung und kritische Punkte
  • Prompt Injection und Jailbreaking (Red Teaming)
    • Direkte Prompt Injection (DAN, Developer Mode, Obfuscation)
    • Jailbreaking-Techniken zur Umgehung von Sicherheitsrichtlinien
    • Automatisierte Angriffe auf LLM-APIs
    • Payload-Generierung und Token-Manipulation
  • Indirect Prompt Injection und RAG-Security
    • Angriffsvektoren über externe Datenquellen (E-Mails, Websites)
    • Manipulation von Retrieval Augmented Generation (RAG) Systemen
    • Versteckte Instruktionen in Dokumenten und Bildern
    • Exfiltration von Unternehmensdaten durch Prompt-Hacking
  • Abwehrstrategien und Defense-in-Depth
    • Implementierung von Input- und Output-Filtern
    • Einsatz von LLM-Firewalls und Guardrails (z. B. NVIDIA NeMo)
    • Prompt-Härtung und System-Prompt-Design
    • Erkennung von adversarialen Eingaben
  • Governance und sicherer Betrieb
    • Monitoring und Logging von LLM-Interaktionen
    • Rate Limiting gegen Model Denial of Service
    • Richtlinien für den sicheren Einsatz von Generativer KI
    • Aufbau einer internen Red Teaming Strategie
Teilnahmevoraussetzungen:
  • Grundlegende Kenntnisse in Python
  • Verständnis der Funktionsweise von LLMs (Prompts, Context Window)
  • Erfahrung mit APIs (REST) ist hilfreich
Zielgruppe:
  • IT-Sicherheitsbeauftragte und Penetration Tester
  • Softwareentwickler und Data Scientists im KI-Umfeld
  • DevSecOps-Ingenieure
  • Für alle, die KI-Anwendungen nicht nur entwickeln, sondern vor gezielten Manipulationen schützen müssen.
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha