Administration Ceph – Maîtrisez le stockage distribué Open Source
Formation en ligne
3 jours (21 heures)

Administration Ceph – Maîtrisez le stockage distribué Open Source

Apprenez à déployer et administrer des clusters de stockage Ceph pour créer une infrastructure de stockage distribuée fiable, performante et évolutive. Formation pratique de 3 jours couvrant l'architecture RADOS, les composants essentiels et l'administration de base.

Objectifs de la formation

À l'issue de cette formation, vous serez capable de :

  • Comprendre l'architecture Ceph et le système RADOS (Reliable Autonomic Distributed Object Store)
  • Installer et configurer un cluster Ceph fonctionnel avec Cephadm
  • Gérer les composants essentiels : Monitors, OSDs, Managers et MDS
  • Implémenter le stockage bloc avec RADOS Block Device (RBD)
  • Déployer le stockage objet via RADOS Gateway (RGW) compatible S3
  • Configurer le stockage fichier avec CephFS
  • Administrer les pools et gérer la réplication des données
  • Utiliser le dashboard Ceph pour la supervision graphique
  • Diagnostiquer et résoudre les problèmes courants
  • Appliquer les bonnes pratiques de performance et de sécurité

Public concerné

Cette formation s'adresse à :

Administrateurs Systèmes

Professionnels Linux souhaitant évoluer vers l'administration de stockage distribué et acquérir des compétences en Software-Defined Storage

Ingénieurs Infrastructure

Responsables du déploiement et de la gestion d'infrastructures de stockage évolutives pour datacenters modernes

Architectes Cloud

Experts cherchant une solution de stockage open source performante comme alternative aux solutions propriétaires coûteuses

Administrateurs OpenStack/Kubernetes

Professionnels souhaitant intégrer Ceph comme backend de stockage pour leurs plateformes cloud

DevOps Engineers

Développeurs et opérationnels cherchant à automatiser le provisionnement de stockage avec Ansible

Formation adaptée aux professionnels d'Afrique francophone recherchant des solutions de stockage souveraines et économiques.

Prérequis

Prérequis techniques

Obligatoires

  • Administration Linux : Maîtrise des commandes de base, gestion des services systemd, édition de fichiers
  • Notions de stockage : Compréhension des concepts de base (partitions, systèmes de fichiers, RAID)
  • Réseaux TCP/IP : Connaissances fondamentales (adressage IP, ports, protocoles)
  • Shell scripting : Capacité à lire et comprendre des scripts Bash simples

Configuration matérielle requise

Pour les travaux pratiques en ligne, chaque participant doit disposer de :

  • Connexion internet stable (minimum 10 Mbps)
  • Navigateur web moderne (Chrome, Firefox, Edge)
  • Client SSH (Terminal, PuTTY, ou équivalent)
  • Environnement de lab fourni dans le cloud ECINTELLIGENCE

Programme détaillé

Programme détaillé de la formation

Jour 1 : Fondamentaux et Architecture Ceph

Module 1 : Introduction au stockage distribué et à Ceph (3h)

  • Évolution du stockage : du DAS/NAS/SAN au Software-Defined Storage
  • Défis du stockage traditionnel et avantages du stockage distribué
  • Histoire et philosophie du projet Ceph
  • Architecture RADOS : le cœur de Ceph
  • Concepts clés : pools, placement groups (PGs), CRUSH map
  • Cas d'usage et retours d'expérience en Afrique
  • Comparaison avec d'autres solutions (GlusterFS, MinIO)
Travaux pratiques :

Exploration d'un cluster Ceph de démonstration, analyse de l'architecture

Module 2 : Composants essentiels de Ceph (4h)

  • Monitors (MON) : Gestion du cluster map et du quorum
    • Rôle dans la cohérence du cluster
    • Configuration du quorum (3, 5, 7 monitors)
    • Gestion des epoch et versions
  • OSDs (Object Storage Daemons) : Stockage des données
    • Gestion des disques et partitions
    • Processus de réplication et recovery
    • Journal et metadata
  • Managers (MGR) : Métriques et plugins
    • Dashboard web
    • Modules Prometheus, Zabbix
    • RESTful API
  • MDS (Metadata Server) : Pour CephFS
    • Cache de métadonnées
    • Active/Standby configuration
Travaux pratiques :

Installation d'un cluster Ceph 3 nœuds avec Cephadm (Reef 18.2)

Jour 2 : Déploiement et Types de Stockage

Module 3 : Déploiement avec Cephadm (3h)

  • Prérequis système et réseau pour Ceph
  • Bootstrap du cluster avec cephadm
  • Ajout de nœuds et d'OSDs
  • Configuration des réseaux public et cluster
  • Gestion des services avec l'orchestrateur
  • Mise à jour vers Squid 19.2
  • Stratégies de déploiement : All-in-one vs distribué
Travaux pratiques :

Déploiement complet d'un cluster, ajout de nœuds, configuration réseau

Module 4 : Stockage Bloc avec RBD (2h)

  • Architecture et fonctionnement de RBD
  • Création et gestion des images RBD
  • Snapshots et clones
  • Fonctionnalités avancées : layering, exclusive-lock
  • Intégration avec les hyperviseurs (KVM/QEMU)
  • Mappage des volumes sur les clients Linux
  • Performance tuning pour les workloads bases de données
Travaux pratiques :

Création d'images RBD, snapshots, montage sur clients, tests de performance

Module 5 : Stockage Objet avec RGW (2h)

  • Concepts du stockage objet : buckets et objets
  • Déploiement de RADOS Gateway
  • Configuration multi-sites et zones
  • API S3 et Swift : compatibilité et différences
  • Gestion des utilisateurs et quotas
  • Politiques de bucket et ACLs
  • Cas d'usage : archivage, backup, CDN
Travaux pratiques :

Déploiement RGW, création de buckets, tests avec AWS CLI et s3cmd

Jour 3 : Administration Avancée et Optimisation

Module 6 : Stockage Fichier avec CephFS (2h)

  • Architecture CephFS : MDS et pools data/metadata
  • Déploiement et configuration des MDS
  • Montage CephFS : kernel client vs FUSE
  • Gestion des sous-volumes et snapshots
  • Quotas et layouts
  • Export NFS et SMB via Ganesha
  • Cas d'usage : partage de fichiers, home directories
Travaux pratiques :

Configuration CephFS, montage sur clients, tests de charge

Module 7 : Administration et Monitoring (3h)

  • Gestion des pools et CRUSH
    • Types de pools : replicated vs erasure coded
    • Modification de la CRUSH map
    • Règles de placement personnalisées
  • Dashboard et monitoring
    • Navigation dans le dashboard Ceph
    • Métriques clés : IOPS, throughput, latence
    • Intégration Prometheus/Grafana
  • Maintenance quotidienne
    • Commandes essentielles : ceph status, health, df
    • Gestion des OSD : in/out, up/down
    • Processus de scrubbing et deep-scrub
Travaux pratiques :

Configuration du monitoring, création de dashboards personnalisés

Module 8 : Performance et Dépannage (2h)

  • Analyse des performances avec ceph bench
  • Optimisation : cache tiering, placement optimal
  • Troubleshooting : slow requests, PG states
  • Recovery et backfilling : gestion et priorités
  • Cas pratiques de pannes et résolutions
  • Stratégies de backup et disaster recovery
  • Évolutions futures : NVMe-oF, compression
Projet final :

Simulation de pannes et recovery, optimisation d'un cluster en production

Certification et Évaluation

  • QCM de validation des acquis en fin de formation
  • Attestation de formation ECINTELLIGENCE
  • Support de cours complet en français (250+ pages)
  • Accès au lab pendant 30 jours après la formation
  • Préparation optionnelle à la certification Red Hat Ceph
  • Intégration à la communauté Ceph Afrique francophone

Certification

À l'issue de cette formation, vous recevrez une attestation de participation délivrée par ECINTELLIGENCE.

1680 EUR

par participant

Durée

3 jours (21 heures)

Modalité

Formation en ligne

Prochaine session

Sur demande

Demander un devis

Autres formations qui pourraient vous intéresser

Prêt à développer vos compétences ?

Rejoignez des centaines de professionnels qui ont fait confiance à ECINTELLIGENCE pour leur montée en compétences.

Voir toutes nos formations

Nathan

Assistant virtuel ECINTELLIGENCE