CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration)

Dauer
Ausführung
Vor Ort, Online
Startdatum und Ort

CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration)

GFU Cyrus AG
Logo von GFU Cyrus AG
Bewertung: starstarstarstarstar_border 7,9 Bildungsangebote von GFU Cyrus AG haben eine durchschnittliche Bewertung von 7,9 (aus 13 Bewertungen)

Tipp: Haben Sie Fragen? Für weitere Details einfach auf "Kostenlose Informationen" klicken.

Startdaten und Startorte
placeKöln
2. Mär 2026 bis 5. Mär 2026
check_circle Garantierte Durchführung
computer Online: Zoom
2. Mär 2026 bis 5. Mär 2026
check_circle Garantierte Durchführung
placeKöln
4. Mai 2026 bis 7. Mai 2026
computer Online: Zoom
4. Mai 2026 bis 7. Mai 2026
placeKöln
6. Jul 2026 bis 9. Jul 2026
computer Online: Zoom
6. Jul 2026 bis 9. Jul 2026
placeKöln
7. Sep 2026 bis 10. Sep 2026
computer Online: Zoom
7. Sep 2026 bis 10. Sep 2026
placeKöln
2. Nov 2026 bis 5. Nov 2026
computer Online: Zoom
2. Nov 2026 bis 5. Nov 2026
Beschreibung

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr

Inha…

Gesamte Beschreibung lesen

Frequently asked questions

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Noch nicht den perfekten Kurs gefunden? Verwandte Themen: Microsoft Azure, VMware, Cloud Computing, Microsoft Windows Server 2008 und Machine Learning.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr

Inhalt

  • Ceph-Grundlagen
    • Eine Einführung in Software Defined Storage (Vor- und Nachteile)
    • Die Entwicklung der Ceph-Geschichte
    • RADOS als Objektspeicher und Kern von Ceph
    • Client-Schnittstellen:
      • Das Ceph Block Device / RADOS Block Device (RBD)
      • CephFS als POSIX-kompatibles Dateisystem
      • Das Ceph Object Gateway / RADOS Gateway (RBD) für HTTPS
    • Ceph & Enterprise Linux-Distributionen (RHEL, SLES, Ubuntu)
  • Die RADOS-Architektur
  • Kernkomponenten eines RADOS-Clusters
    • Object Storage Daemon (OSD)
    • Monitoring Server (MON)
    • Metadaten-Server (MDS)
  • Das Deployment- und Management-Framework „cephadm“
    • „ceph-mgr“ als Management-Komponente
    • „cephadm“ als CLI-Werkzeug
    • Das Ceph Dashboard als grafische Oberfläche
  • CEPH-Setup 
    • Empfehlungen zur Hardware eines Ceph-Clusters in Abhängigkeit vom Usecase
    • Art und Wesen des Ceph-Deployments: Container oder Pakete?
    • Von RADOS und Clients benötigte Komponenten: Systemvorbereitungen
      • Docker / CRI-o
      • NTPd / Chrony
    • Deployment eines Drei-Knoten-Clusters mit „cephadm“ und „ceph“ (Ceph 17 (“Quincy”) inkl. diverser praktischer Übungen)
    • Detaillierte Übersicht über Einstellungen in „ceph.conf“
    • Authentifizierung mit CephX:
      • Grundlegende Funktionalität
      • Anlegen zusätzlicher Nutzer
      • Integration von Ceph in bestehende Security-/Compliance-Konzepte
  • Ceph-Administration
    • Detaillierte Analyse eines Ceph-Clusters und seines Zustandes
    • Die interne RADOS-Struktur: Placement Groups & Pools
      • Pools anlegen & entfernen
      • Konfiguration des Replikationslevels
      • Anbindung von externen Diensten wie Kubernetes oder OpenStack
      • Recovery-Traffic steuern: Throttling & Beschleunigung
      • Replikation und Erasure Coding in Ceph
    • Wartungsaufgaben: 
      • Recovery von Monitoring-Servern
      • Hinzufügen und Entfernen von OSD-Diensten
    • Snapshots über die verschiedenen Front-Ends
    • Storage Tiers: Hot & Cold Storage in Ceph (mögliche Konzepte)
  • Troubleshooting & Debugging
    • Recovery ausgefallener OSDs und wiederherstellen eines konsistenten Zustandes
    • Recovery verlorener Placement Groups:
      • Status-Analyse vorhandener PGs
      • Mögliche Vorgehensweisen für verschiedene Problemfälle
    • CRUSH steuern: Per Textdatei oder Kommandozeile
    • Disaster Recovery Konzepte für Ceph
    • Backup-Ansätze für Ceph
  • Verbindung verschiedener Dienste mit Ceph
    • Ceph & Libvirt/KVM/Qemu
      • Konfiguration einer Qemu-VM für die Nutzung mit Ceph
    • Ceph & OpenStack
      • Deployment-Empfehlungen
      • Anbindung an Cinder
      • Anbindung an Glance
    • Ceph & Kubernetes
      • Anbindung als externer Cluster
      • Anbindung mittels Rook
    • Ceph & VMware
      • Mögliche Ansätze der Integration in ESXi / vCenter
    • Das Ceph Object Gateway / RADOS Gateway (RGW)
      • Konfiguration der S3-Schnittstelle des Dienstes
      • Anbindung von Client-Anwendungen
      • Replikation zwischen RGW-Instanzen
  • Performance
  • Vorhandene Werkzeuge zur Performance-Messung
  • Tuning-Möglichkeiten auf der Hardware- und Systemebene
  • Tuning für RADOS
  • Caching-Optionen der Clients

Werden Sie über neue Bewertungen benachrichtigt
Es wurden noch keine Bewertungen geschrieben.
Schreiben Sie eine Bewertung
Haben Sie Erfahrung mit diesem Kurs? Schreiben Sie jetzt eine Bewertung und helfen Sie Anderen dabei die richtige Weiterbildung zu wählen. Als Dankeschön spenden wir € 1,00 an Stiftung Edukans.

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Bitte füllen Sie das Formular so vollständig wie möglich aus

(optional)
(optional)
(optional)
(optional)
(optional)
(optional)
(optional)

Haben Sie noch Fragen?

(optional)

Anmeldung für Newsletter

Damit Ihnen per E-Mail oder Telefon weitergeholfen werden kann, speichern wir Ihre Daten.
Mehr Informationen dazu finden Sie in unseren Datenschutzbestimmungen.