CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration)
placeKöln 2. Mär 2026 bis 5. Mär 2026check_circle Garantierte Durchführung |
computer Online: Zoom 2. Mär 2026 bis 5. Mär 2026check_circle Garantierte Durchführung |
placeKöln 4. Mai 2026 bis 7. Mai 2026 |
computer Online: Zoom 4. Mai 2026 bis 7. Mai 2026 |
placeKöln 6. Jul 2026 bis 9. Jul 2026 |
computer Online: Zoom 6. Jul 2026 bis 9. Jul 2026 |
placeKöln 7. Sep 2026 bis 10. Sep 2026 |
computer Online: Zoom 7. Sep 2026 bis 10. Sep 2026 |
placeKöln 2. Nov 2026 bis 5. Nov 2026 |
computer Online: Zoom 2. Nov 2026 bis 5. Nov 2026 |
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehrInha…
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehrInhalt
- Ceph-Grundlagen
- Eine Einführung in Software Defined Storage (Vor- und Nachteile)
- Die Entwicklung der Ceph-Geschichte
- RADOS als Objektspeicher und Kern von Ceph
- Client-Schnittstellen:
- Das Ceph Block Device / RADOS Block Device (RBD)
- CephFS als POSIX-kompatibles Dateisystem
- Das Ceph Object Gateway / RADOS Gateway (RBD) für HTTPS
- Ceph & Enterprise Linux-Distributionen (RHEL, SLES, Ubuntu)
- Die RADOS-Architektur
- Kernkomponenten eines RADOS-Clusters
- Object Storage Daemon (OSD)
- Monitoring Server (MON)
- Metadaten-Server (MDS)
- Das Deployment- und Management-Framework „cephadm“
- „ceph-mgr“ als Management-Komponente
- „cephadm“ als CLI-Werkzeug
- Das Ceph Dashboard als grafische Oberfläche
- CEPH-Setup
- Empfehlungen zur Hardware eines Ceph-Clusters in Abhängigkeit vom Usecase
- Art und Wesen des Ceph-Deployments: Container oder Pakete?
- Von RADOS und Clients benötigte Komponenten:
Systemvorbereitungen
- Docker / CRI-o
- NTPd / Chrony
- Deployment eines Drei-Knoten-Clusters mit „cephadm“ und „ceph“ (Ceph 17 (“Quincy”) inkl. diverser praktischer Übungen)
- Detaillierte Übersicht über Einstellungen in „ceph.conf“
- Authentifizierung mit CephX:
- Grundlegende Funktionalität
- Anlegen zusätzlicher Nutzer
- Integration von Ceph in bestehende Security-/Compliance-Konzepte
- Ceph-Administration
- Detaillierte Analyse eines Ceph-Clusters und seines Zustandes
- Die interne RADOS-Struktur: Placement Groups & Pools
- Pools anlegen & entfernen
- Konfiguration des Replikationslevels
- Anbindung von externen Diensten wie Kubernetes oder OpenStack
- Recovery-Traffic steuern: Throttling & Beschleunigung
- Replikation und Erasure Coding in Ceph
- Wartungsaufgaben:
- Recovery von Monitoring-Servern
- Hinzufügen und Entfernen von OSD-Diensten
- Snapshots über die verschiedenen Front-Ends
- Storage Tiers: Hot & Cold Storage in Ceph (mögliche Konzepte)
- Troubleshooting & Debugging
- Recovery ausgefallener OSDs und wiederherstellen eines konsistenten Zustandes
- Recovery verlorener Placement Groups:
- Status-Analyse vorhandener PGs
- Mögliche Vorgehensweisen für verschiedene Problemfälle
- CRUSH steuern: Per Textdatei oder Kommandozeile
- Disaster Recovery Konzepte für Ceph
- Backup-Ansätze für Ceph
- Verbindung verschiedener Dienste mit Ceph
- Ceph & Libvirt/KVM/Qemu
- Konfiguration einer Qemu-VM für die Nutzung mit Ceph
- Ceph & OpenStack
- Deployment-Empfehlungen
- Anbindung an Cinder
- Anbindung an Glance
- Ceph & Kubernetes
- Anbindung als externer Cluster
- Anbindung mittels Rook
- Ceph & VMware
- Mögliche Ansätze der Integration in ESXi / vCenter
- Das Ceph Object Gateway / RADOS Gateway (RGW)
- Konfiguration der S3-Schnittstelle des Dienstes
- Anbindung von Client-Anwendungen
- Replikation zwischen RGW-Instanzen
- Ceph & Libvirt/KVM/Qemu
- Performance
- Vorhandene Werkzeuge zur Performance-Messung
- Tuning-Möglichkeiten auf der Hardware- und Systemebene
- Tuning für RADOS
- Caching-Optionen der Clients
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
