Skalierbare KI/ML-Infrastrukturen mit NVIDIA Datacenter-GPUs, Kubernetes und OpenShift

Dauer
Ausführung
Online
Startdatum und Ort

Skalierbare KI/ML-Infrastrukturen mit NVIDIA Datacenter-GPUs, Kubernetes und OpenShift

GFU Cyrus AG
Logo von GFU Cyrus AG
Bewertung: starstarstarstar_halfstar_border 6,9 Bildungsangebote von GFU Cyrus AG haben eine durchschnittliche Bewertung von 6,9 (aus 8 Bewertungen)

Tipp: Haben Sie Fragen? Für weitere Details einfach auf "Kostenlose Informationen" klicken.

Startdaten und Startorte

computer Online: Zoom
8. Mai 2024

Beschreibung

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Der Kurs vermittelt wichtige Konzepte und Best Practices rund um Planung, Implementierung und Betrieb von (auto-)skalierbaren KI/ML-Clustern mit NVIDIA Datacenter-GPUs auf Hypervisoren von VMware (vSphere), AWS und GCP, containerisiert mit Kubernetes und OpenShift. 
Dabei wird der Fokus auf langfristig planbaren und kosteneffizienten Betrieb mithilfe maximaler Automation (IaaS/IaC/Operatoren) gesetzt. Zudem werden die Vor- und Nachteile der jeweiligen Implementierungsvarianten beleuchtet. Im Rahmen der Schulung kann auch, soweit technisch, zeitlich und thematisch möglich, auf konkrete Problemstellungen der Teilnehmer eingegangen werden.

Inhalt

  • Skalierbare KI/ML Infrastrukturen …

Gesamte Beschreibung lesen

Frequently asked questions

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Noch nicht den perfekten Kurs gefunden? Verwandte Themen: Kubernetes, Cloud Computing, Amazon Web Services (AWS), Docker und Google Cloud Platform.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Der Kurs vermittelt wichtige Konzepte und Best Practices rund um Planung, Implementierung und Betrieb von (auto-)skalierbaren KI/ML-Clustern mit NVIDIA Datacenter-GPUs auf Hypervisoren von VMware (vSphere), AWS und GCP, containerisiert mit Kubernetes und OpenShift. 
Dabei wird der Fokus auf langfristig planbaren und kosteneffizienten Betrieb mithilfe maximaler Automation (IaaS/IaC/Operatoren) gesetzt. Zudem werden die Vor- und Nachteile der jeweiligen Implementierungsvarianten beleuchtet. Im Rahmen der Schulung kann auch, soweit technisch, zeitlich und thematisch möglich, auf konkrete Problemstellungen der Teilnehmer eingegangen werden.

Inhalt

  • Skalierbare KI/ML Infrastrukturen - Foundation
    • Skalierbare KI/ML Cluster - Übersicht: zwischen Hype und Realität
    • Welche Unternehmen und Bereiche können von autoskalierbaren KI/ML-Systemen profitieren
    • KI/ML-Cluster-Stack: Architektur und Aufbau von GPU-Accelerated Clustern im Überblick
    • Cloud vs. On-Prem: verfügbare Technologie-Stacks, Aufwand für Setup und Betrieb, Anschaffungs-/Betriebs- Kosten und ROI im Überblick
    • Hybrid-Lösungen für Kosteneffizienz: Pay-per-Use Cloud-Training, sicherer Produktivbetrieb im RZ 
    • Überblick: Involvierte Stacks, Lizenzmodelle und -kosten
  • GPU Accelerated ML Cluster: Core Concepts
    • Architektur und Arbeitsweise von containerisierten GPU Clustern im Detail
    • Datacenter GPUs und Technologien: NVIDIA vs. AMD vs. Intel 
    • 'Pure' TPUs vs. GPUs
    • Infrastruktur: Virtualisiert, Containerisiert - oder besser nicht?
    • Bare Metal vs. VM: Performance vs. IaaS/IaC -Automation und Autoscaling
    • Betrieb von GPUs Nodes in vSphere Enterprise Umgebungen 
    • Hardware-Fragen: NVIDIA Certified Server 
    • Hardware-Fragen: NVIDIA Datacenter GPUs nach Einsatzzweck 
    • NVIDIA MIG-capable Ampere-Cards: Flexibilität und Multi-Tenancy 
    • NVIDIA DGX: Hardware-Komplettlösungen für Unternehmen
    • MIG vs. vGPU Mode
    • Komponenten des NVIDIA AI Enterprise Stacks
  • GPU Accelerated ML Cluster: Advanced Concepts
    • GPU-Nodes in Container-Plattformen: OpenShift vs. Vanilla Kubernetes 
    • IaaS und IaC Best Practices für maximale GPU-Cluster-Automation
    • GPU-Node -Vollautomation mit NVIDIAs GPU-Operator-Stack
    • GPU-Interconnect lokal: NVLink und NVSwitch
    • GPU-Connect remote: GPUDirect RDMA und Network-Operator
    • Überblick: KubeFlow, OpenDataHub und NVIDIAs AI Workspace Operator
    • The Road Ahead 

Werden Sie über neue Bewertungen benachrichtigt

Es wurden noch keine Bewertungen geschrieben.

Schreiben Sie eine Bewertung

Haben Sie Erfahrung mit diesem Kurs? Schreiben Sie jetzt eine Bewertung und helfen Sie Anderen dabei die richtige Weiterbildung zu wählen. Als Dankeschön spenden wir € 1,00 an Stiftung Edukans.

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Bitte füllen Sie das Formular so vollständig wie möglich aus

(optional)
(optional)
(optional)
(optional)
(optional)
(optional)
(optional)

Haben Sie noch Fragen?

(optional)

Anmeldung für Newsletter

Damit Ihnen per E-Mail oder Telefon weitergeholfen werden kann, speichern wir Ihre Daten.
Mehr Informationen dazu finden Sie in unseren Datenschutzbestimmungen.