
Administration Ceph – Niveau 1
Apprenez à déployer un cluster Cephadm de 3 nœuds, à administrer les services MON / MGR / OSD et à assurer la haute disponibilité de vos données.
Training objectives
- Comprendre l’architecture Ceph : MON, MGR, OSD, RGW, CephFS
- Déployer un cluster Cephadm pas-à-pas (bootstrap, ajout de nœuds)
- Gérer les OSD, les placement groups et les pools (réplication vs erasure coding)
- Effectuer les tâches courantes d’administration : rebalance, scrubbing, reweight, pg autoscaler
- Découvrir les interfaces RBD, RGW et CephFS
- Mettre en place la surveillance (Dashboard, Prometheus, Grafana, Alertmanager)
- Appliquer les meilleures pratiques de sauvegarde, mise à jour et troubleshooting
Target audience
Admins systèmes, ingénieurs stockage, architectes cloud débutant sur Ceph.
Prerequisites
- Maîtrise de l’environnement Linux (ligne de commande, gestion de services)
- Notions fondamentales de réseaux TCP/IP (MTU, VLAN, routage)
- Connaissance de base des concepts de stockage bloc & fichier
Detailed program
Jour 1 – Fondamentaux & déploiement
-
Introduction au stockage distribué
-
Limitations RAID / SAN traditionnels
-
Positionnement de Ceph dans l’écosystème Cloud-Native
-
-
Architecture Ceph 17 → 18 (Reef → Squid)
-
Rôles MON, MGR, OSD, MDS, RGW
-
Cluster Map, CRUSH, PG, heartbeats
-
-
Lab : préparation des hôtes
-
Réseau public vs cluster, time-sync, tuning sysctl
-
-
Bootstrap Cephadm
-
Téléchargement de l’image, script
cephadm bootstrap
-
Ajout d’hôtes, activation du Dashboard
-
-
Validation santé
-
ceph -s
,ceph orch status
, alertes initiales
-
Jour 2 – Stockage & services
-
Gestion des OSD
-
LVs, partitions, device classes (SSD/HDD/NVMe)
-
Flags
out
,in
,destroyed
,safe-to-destroy
-
-
CRUSH map avancée
-
Buckets, rules, device weights
-
Simulation
crushtool
-
-
Pools et PG
-
Calcul
pg_num
, autoscaler, souci de small-PG -
Réplication vs erasure coding (EC k/m), overhead, performance
-
-
Interfaces client
-
RBD : map, snapshot, clone
-
RGW : configuration S3, tenants, quotas
-
CephFS : MDS, sub-volumes
-
-
Lab pratique
-
Création de pools répliqués/EC, bench
rados bench
, test RBD
-
Jour 3 – Opérations & haute dispo
-
Surveillance et alerting
-
Dashboard, Prometheus, Grafana, Alertmanager
-
Alertes critiques et scripts webhook
-
-
Maintenance et upgrades
-
Rolling update avec
ceph orch upgrade
-
Flags
noout
,norebalance
,norecover
-
-
Sauvegarde & récupération
-
rbd mirror
, snapshots RGW, export OSD,cephfs-journal-tool
-
-
Haute disponibilité & bonnes pratiques
-
Quorum, failure domains, Stretch cluster, Multi-site RGW
-
Sécurité : encryption at rest, réseaux dédiés, firewalling
-
-
Troubleshooting
-
Logs
cephadm logs
,ceph daemon ...
-
Outils :
ceph tell
,ceph-objectstore-tool
, GDB on OSD
-
-
Examen pratique & clôture
-
Déploiement complet, résolution d’incident simulé, Q&A
-
Certification
À l'issue de cette formation, vous recevrez une attestation de participation délivrée par ECINTELLIGENCE.
Other training courses that might interest you
Ready to develop your skills?
Rejoignez des centaines de professionnels qui ont fait confiance à ECINTELLIGENCE pour leur montée en compétences.
View all our training courses