Seminare
Seminare

KI-Training ohne Datenleck: Security by Design

Webinar - PROKODA GmbH

KI-Training ohne Datenleck: Security by Design
Termin Ort Preis*
18.05.2026- 19.05.2026 München 1.725,50 €
18.05.2026- 19.05.2026 online 1.725,50 €
17.08.2026- 18.08.2026 München 1.725,50 €
17.08.2026- 18.08.2026 online 1.725,50 €

Alle Termine anzeigen

*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:
  • Bedrohungsmodell für KI-Training
    • Angriffsflächen: Daten, Pipeline, Artefakte, Zugriffe
    • Threat Modeling mit konkreten Abuse-Cases
    • Risiken: Data Poisoning, Exfiltration, Insider
    • Security-KPIs für ML-Projekte
  • Datenschutz und Compliance im Trainingskontext
    • DSGVO-Grundlagen: Zweckbindung, Minimierung, Löschung
    • PII-Erkennung und sensible Datenklassen
    • Auftragsverarbeitung, TOMs, Audit-Nachweise
    • Umgang mit Daten aus Drittsystemen
  • Datenaufbereitung mit Schutzmechanismen
    • Maskierung, Pseudonymisierung, Tokenisierung
    • Sampling-Strategien und Datenminimierung
    • Labeling-Prozesse: sichere Rollen und Freigaben
    • Qualitätschecks gegen Poisoning
  • Sichere Trainingsumgebungen und Zugriffskontrolle
    • Isolierung: Netzwerksegmente, Secrets, IAM
    • Least Privilege für Daten, Jobs und Artefakte
    • Logging, Monitoring, Anomalieerkennung
    • Backup, Restore und sichere Löschkonzepte
  • Supply-Chain-Security für ML
    • Risiken in Python-Paketen, Container-Images, Base-Images
    • Signierung, SBOM, Vulnerability Scans
    • Reproduzierbare Trainingsläufe
    • Freigabeprozesse für Dependencies
  • Modellartefakte, Leakage und sichere Veröffentlichung
    • Model Inversion und Membership Inference verstehen
    • Prompt- und Output-Leakage bei GenAI-Workflows
    • Policies für Sharing, Registry, Versionierung
    • Red-Teaming-Checks vor Deployment
Teilnahmevoraussetzungen:
  • Grundverständnis von ML-Workflows (Datenaufbereitung, Training, Artefakte).
  • Basiswissen zu Zugriffskontrolle und Logs ist hilfreich, aber nicht zwingend.
Zielgruppe:
  • ML Engineers und Data Scientists mit Trainingsverantwortung
  • IT-Security-Verantwortliche, die ML-Pipelines absichern
  • Data Engineers und Plattform-Teams (MLOps)
  • Datenschutzbeauftragte und Compliance-Funktionen mit KI-Bezug
  • Für alle, die eigene KI-Modelle trainieren und Daten, Modelle sowie Pipelines belastbar schützen wollen
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha