
Administration Ceph – Maîtrisez le stockage distribué Open Source
Apprenez à déployer et administrer des clusters de stockage Ceph pour créer une infrastructure de stockage distribuée fiable, performante et évolutive. Formation pratique de 3 jours couvrant l'architecture RADOS, les composants essentiels et l'administration de base.
Objectifs de la formation
À l'issue de cette formation, vous serez capable de :
- Comprendre l'architecture Ceph et le système RADOS (Reliable Autonomic Distributed Object Store)
- Installer et configurer un cluster Ceph fonctionnel avec Cephadm
- Gérer les composants essentiels : Monitors, OSDs, Managers et MDS
- Implémenter le stockage bloc avec RADOS Block Device (RBD)
- Déployer le stockage objet via RADOS Gateway (RGW) compatible S3
- Configurer le stockage fichier avec CephFS
- Administrer les pools et gérer la réplication des données
- Utiliser le dashboard Ceph pour la supervision graphique
- Diagnostiquer et résoudre les problèmes courants
- Appliquer les bonnes pratiques de performance et de sécurité
Public concerné
Cette formation s'adresse à :
Administrateurs Systèmes
Professionnels Linux souhaitant évoluer vers l'administration de stockage distribué et acquérir des compétences en Software-Defined Storage
Ingénieurs Infrastructure
Responsables du déploiement et de la gestion d'infrastructures de stockage évolutives pour datacenters modernes
Architectes Cloud
Experts cherchant une solution de stockage open source performante comme alternative aux solutions propriétaires coûteuses
Administrateurs OpenStack/Kubernetes
Professionnels souhaitant intégrer Ceph comme backend de stockage pour leurs plateformes cloud
DevOps Engineers
Développeurs et opérationnels cherchant à automatiser le provisionnement de stockage avec Ansible
Formation adaptée aux professionnels d'Afrique francophone recherchant des solutions de stockage souveraines et économiques.
Prérequis
Prérequis techniques
Obligatoires
- Administration Linux : Maîtrise des commandes de base, gestion des services systemd, édition de fichiers
- Notions de stockage : Compréhension des concepts de base (partitions, systèmes de fichiers, RAID)
- Réseaux TCP/IP : Connaissances fondamentales (adressage IP, ports, protocoles)
- Shell scripting : Capacité à lire et comprendre des scripts Bash simples
Recommandés
- Expérience avec la virtualisation (KVM, VMware)
- Connaissance des architectures distribuées
- Notions de Python (pour les scripts d'automatisation)
- Familiarité avec les concepts de haute disponibilité
Configuration matérielle requise
Pour les travaux pratiques en ligne, chaque participant doit disposer de :
- Connexion internet stable (minimum 10 Mbps)
- Navigateur web moderne (Chrome, Firefox, Edge)
- Client SSH (Terminal, PuTTY, ou équivalent)
- Environnement de lab fourni dans le cloud ECINTELLIGENCE
Programme détaillé
Programme détaillé de la formation
Jour 1 : Fondamentaux et Architecture Ceph
Module 1 : Introduction au stockage distribué et à Ceph (3h)
- Évolution du stockage : du DAS/NAS/SAN au Software-Defined Storage
- Défis du stockage traditionnel et avantages du stockage distribué
- Histoire et philosophie du projet Ceph
- Architecture RADOS : le cœur de Ceph
- Concepts clés : pools, placement groups (PGs), CRUSH map
- Cas d'usage et retours d'expérience en Afrique
- Comparaison avec d'autres solutions (GlusterFS, MinIO)
Exploration d'un cluster Ceph de démonstration, analyse de l'architecture
Module 2 : Composants essentiels de Ceph (4h)
- Monitors (MON) : Gestion du cluster map et du quorum
- Rôle dans la cohérence du cluster
- Configuration du quorum (3, 5, 7 monitors)
- Gestion des epoch et versions
- OSDs (Object Storage Daemons) : Stockage des données
- Gestion des disques et partitions
- Processus de réplication et recovery
- Journal et metadata
- Managers (MGR) : Métriques et plugins
- Dashboard web
- Modules Prometheus, Zabbix
- RESTful API
- MDS (Metadata Server) : Pour CephFS
- Cache de métadonnées
- Active/Standby configuration
Installation d'un cluster Ceph 3 nœuds avec Cephadm (Reef 18.2)
Jour 2 : Déploiement et Types de Stockage
Module 3 : Déploiement avec Cephadm (3h)
- Prérequis système et réseau pour Ceph
- Bootstrap du cluster avec cephadm
- Ajout de nœuds et d'OSDs
- Configuration des réseaux public et cluster
- Gestion des services avec l'orchestrateur
- Mise à jour vers Squid 19.2
- Stratégies de déploiement : All-in-one vs distribué
Déploiement complet d'un cluster, ajout de nœuds, configuration réseau
Module 4 : Stockage Bloc avec RBD (2h)
- Architecture et fonctionnement de RBD
- Création et gestion des images RBD
- Snapshots et clones
- Fonctionnalités avancées : layering, exclusive-lock
- Intégration avec les hyperviseurs (KVM/QEMU)
- Mappage des volumes sur les clients Linux
- Performance tuning pour les workloads bases de données
Création d'images RBD, snapshots, montage sur clients, tests de performance
Module 5 : Stockage Objet avec RGW (2h)
- Concepts du stockage objet : buckets et objets
- Déploiement de RADOS Gateway
- Configuration multi-sites et zones
- API S3 et Swift : compatibilité et différences
- Gestion des utilisateurs et quotas
- Politiques de bucket et ACLs
- Cas d'usage : archivage, backup, CDN
Déploiement RGW, création de buckets, tests avec AWS CLI et s3cmd
Jour 3 : Administration Avancée et Optimisation
Module 6 : Stockage Fichier avec CephFS (2h)
- Architecture CephFS : MDS et pools data/metadata
- Déploiement et configuration des MDS
- Montage CephFS : kernel client vs FUSE
- Gestion des sous-volumes et snapshots
- Quotas et layouts
- Export NFS et SMB via Ganesha
- Cas d'usage : partage de fichiers, home directories
Configuration CephFS, montage sur clients, tests de charge
Module 7 : Administration et Monitoring (3h)
- Gestion des pools et CRUSH
- Types de pools : replicated vs erasure coded
- Modification de la CRUSH map
- Règles de placement personnalisées
- Dashboard et monitoring
- Navigation dans le dashboard Ceph
- Métriques clés : IOPS, throughput, latence
- Intégration Prometheus/Grafana
- Maintenance quotidienne
- Commandes essentielles : ceph status, health, df
- Gestion des OSD : in/out, up/down
- Processus de scrubbing et deep-scrub
Configuration du monitoring, création de dashboards personnalisés
Module 8 : Performance et Dépannage (2h)
- Analyse des performances avec ceph bench
- Optimisation : cache tiering, placement optimal
- Troubleshooting : slow requests, PG states
- Recovery et backfilling : gestion et priorités
- Cas pratiques de pannes et résolutions
- Stratégies de backup et disaster recovery
- Évolutions futures : NVMe-oF, compression
Simulation de pannes et recovery, optimisation d'un cluster en production
Certification et Évaluation
- QCM de validation des acquis en fin de formation
- Attestation de formation ECINTELLIGENCE
- Support de cours complet en français (250+ pages)
- Accès au lab pendant 30 jours après la formation
- Préparation optionnelle à la certification Red Hat Ceph
- Intégration à la communauté Ceph Afrique francophone
Certification
À l'issue de cette formation, vous recevrez une attestation de participation délivrée par ECINTELLIGENCE.
Autres formations qui pourraient vous intéresser
Prêt à développer vos compétences ?
Rejoignez des centaines de professionnels qui ont fait confiance à ECINTELLIGENCE pour leur montée en compétences.
Voir toutes nos formations