Seminare
Seminare

Data Engineering: KI-Pipelines im Einsatz

Webinar - PROKODA GmbH

Data Engineering: KI-Pipelines im Einsatz
Termin Ort Preis*
06.07.2026- 08.07.2026 München 2.320,50 €
06.07.2026- 08.07.2026 online 2.320,50 €
12.10.2026- 14.10.2026 München 2.320,50 €
12.10.2026- 14.10.2026 online 2.320,50 €

Alle Termine anzeigen

*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:
  • Architektur für KI-Datenpipelines
    • Batch vs. Streaming und typische KI-Workloads
    • Lakehouse, Data Warehouse, Feature Store: Abgrenzung
    • Schichtenmodell: Raw, Clean, Curated, Serving
    • Schnittstellen zu Training und Inferenz
  • Ingestion und Datenverträge
    • Quellen anbinden: APIs, Events, Dateien, Datenbanken
    • Schema Evolution und Contract Testing
    • Idempotenz, Reprocessing, Backfills
    • PII-Handling und Zugriffskonzepte
  • Transformationen, Qualität und Lineage
    • ELT/ETL-Patterns und inkrementelle Modelle
    • Data Quality Checks und Anomalie-Erkennung
    • Lineage und Impact Analysis für Änderungen
    • Dokumentation und Datenkatalog-Grundlagen
  • Orchestrierung und zuverlässiger Betrieb
    • DAG-Design, Abhängigkeiten, SLAs und Retries
    • Scheduling, Event-driven Trigger, Sensoren
    • Observability: Logs, Metriken, Traces
    • Runbooks und Incident-Playbooks
  • Feature Engineering als Produkt
    • Offline/Online Features und Konsistenz
    • Point-in-time Correctness und Leakage vermeiden
    • Feature Versioning und Wiederverwendbarkeit
    • Serving Patterns für Low Latency
  • Governance, Sicherheit und Kosten
    • Rollen, Policies, Secrets und Audit Trails
    • Retention, Löschkonzepte und Datenminimierung
    • Kostenhebel: Storage, Compute, Egress
    • FinOps-Prinzipien für Datenplattformen
  • Produktionsreife KI-Datenflüsse
    • Drift-Signale: Daten, Features, Labels
    • Monitoring für Datenqualität und Freshness
    • Reproduzierbarkeit: Snapshots und Time Travel
    • Übergabe an MLOps: Artefakte und Schnittstellen
Teilnahmevoraussetzungen:
  • Grundverständnis von Datenpipelines (z. B. ETL/ELT, Batch oder Streaming).
  • Basiswissen zu SQL und Datenmodellierung ist hilfreich.
Zielgruppe:
  • Data Engineers mit erster Pipeline-Erfahrung
  • Analytics Engineers, die KI-Use-Cases bedienen
  • ML Engineers, die Datenflüsse produktiv machen
  • Plattform- und Cloud Engineers im Datenumfeld
  • Alle, die KI-Systeme mit verlässlichen Datenpipelines versorgen wollen
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha