Das Seminar zielt darauf ab, den Teilnehmenden ein tiefgehendes Verständnis von Google Vertex AI zu vermitteln. Sie lernen, wie sie Daten effizient vorbereiten, Modelle mit AutoML oder benutzerdefiniert trainieren und in Produktionsumgebungen skalieren können. Der Fokus liegt auf der Optimierung von Datenpipelines, der Reduktion von Inferenzlatenzen und der Integration in bestehende IT-Systeme. Praxisnahe Übungen und Fallstudien unterstützen den Transfer des erlernten Wissens in den Arbeitsalltag.
Vorstellung von Google Vertex AI: Geschichte, Vision und Produktportfolio
Bedeutung von Vertex AI als integrierte Plattform für KI-Entwicklung in der Cloud
Hauptmerkmale, z. B. AutoML, benutzerdefiniertes Modelltraining und skalierbares Deployment
Ziele und strategischer Nutzen von Vertex AI für Unternehmen
Vergleich und Abgrenzung zu alternativen Plattformen
Gegenüberstellung von Google Vertex AI mit anderen Cloud-basierten ML-Plattformen (z. B. AWS SageMaker, Microsoft Azure ML)
Analyse von Leistungsfähigkeit, Benutzerfreundlichkeit und Kostenstruktur
Bewertung hinsichtlich Flexibilität, Integration und Support
Diskussion der Vor- und Nachteile in unterschiedlichen Anwendungsszenarien
Datenaufbereitung und Feature Engineering
Methoden zur Datenakquise und -vorverarbeitung in Vertex AI
Einsatz von Dataflow und anderen Google Cloud-Diensten zur Datenbereinigung
Techniken des Feature Engineerings für verbesserte Modellleistung
Best Practices zur kontinuierlichen Datenintegration in ML-Pipelines
Modelltraining und AutoML
Einrichtung und Training von Machine-Learning-Modellen in Vertex AI
Nutzung von AutoML für automatisierte Modellgenerierung und -optimierung
Vergleich von benutzerdefiniertem Training vs. AutoML-Ansätzen
Strategien zur Verbesserung der Modellgenauigkeit und Reduktion von Trainingszeiten
Modelldeployment und Skalierung
Schritte zum Deployment von Modellen in Produktionsumgebungen
Einsatz von Vertex AI Prediction für skalierbare Echtzeit-Inferenz
Konfiguration von Endpunkten und Load Balancing
Best Practices zur Überwachung und Optimierung des Deployments
Monitoring, Logging und Performance-Optimierung
Einsatz von Vertex AI Tools und Google Cloud Monitoring zur Überwachung von Modellen
Analyse von Performance-Metriken und Identifikation von Engpässen
Strategien zur kontinuierlichen Optimierung und Fehlerdiagnose
Nutzung von Logging-Diensten zur Nachverfolgung von Inferenzprozessen
Integration in bestehende IT-Systeme und Automatisierung
Anbindung von Vertex AI an bestehende Datenquellen und IT-Ökosysteme
Nutzung von RESTful APIs und SDKs zur Automatisierung von ML-Workflows
Verbindung von Vertex AI mit CI/CD-Pipelines zur kontinuierlichen Modellbereitstellung
Fallstudien zur erfolgreichen Integration in hybride und Multi-Cloud-Umgebungen
Zukunftstrends und strategische Überlegungen in der KI-Entwicklung
Diskussion aktueller Trends in der KI, z. B. Edge AI, Federated Learning und KI-Ethik
Ausblick auf zukünftige Entwicklungen und Innovationen im Bereich Cloud-KI
Strategische Planung zur Skalierung und Weiterentwicklung von ML-Lösungen
Chancen und Risiken für Unternehmen im Zeitalter der digitalen Transformation
Praktische Abschlussübung
Aufgabe: In Gruppenarbeit entwickeln die Teilnehmenden ein vollständiges End-to-End-Szenario zur Implementierung einer KI-Lösung mit Google Vertex AI
Ziel: Die Teilnehmenden bereiten einen Datensatz vor, trainieren ein Modell (benutzerdefiniert oder via AutoML), deployen es in Vertex AI und integrieren das System in eine Beispielanwendung
Ergebnis: Jede Gruppe präsentiert ihr Konzept inklusive einer Live-Demo der zentralen Funktionen; anschließend erfolgt eine moderierte Feedbackrunde zur Diskussion von Verbesserungspotenzialen
Dauer/zeitlicher Ablauf:
2 Tage
Zielgruppe:
Dieses Seminar richtet sich an Data Scientists, Machine-Learning-Ingenieure, IT-Administratoren, Systemarchitekten und Fachkräfte im Bereich Künstliche Intelligenz, die bereits grundlegende Kenntnisse in der Datenanalyse und im maschinellen Lernen besitzen.
Vorerfahrungen mit Cloud-Diensten, Python-Programmierung und klassischen ML-Frameworks (z. B. TensorFlow oder PyTorch) sind von Vorteil, um die fortgeschrittenen Inhalte optimal nutzen zu können.
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern.
Diese Cookies werden nicht automatisiert gesetzt.
Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren.
Weitere Informationen finden Sie hier.