A l’issue de la formation le participant sera capable de :
• Installer et configurer un cluster Kubernetes avec Kubeadm, incluant les aspects avancés de mise en réseau et de configuration initiale.
• Utiliser kubectl pour gérer efficacement les objets Kubernetes et diagnostiquer les problèmes.
• Déployer et faire évoluer des applications, en assurant leur accessibilité et leur résilience.
• Diagnostiquer et résoudre les problèmes de déploiement et de performances des applications.
• Exposer des applications via différents types de services et configurer un routage avancé avec Ingress.
• Gérer la configuration et les informations sensibles via ConfigMaps et Secrets de manière sécurisée.
• Configurer le stockage persistant pour assurer la persistance des données d’applications critiques.
• Mettre en place des stratégies de scaling automatique et de gestion des ressources pour optimiser les performances.
• Consolider les compétences avec un atelier final intégrant tous les aspects abordés.
- Nos sessions garanties
- DevOps
Formation Kubernetes les fondamentaux
Objectifs
Prérequis
• Bonne maîtrise des lignes de commande Linux, y compris la navigation dans le système de fichiers, les permissions et la gestion des processus.
• Compréhension de base des réseaux (DNS, IP, routage) pour les configurations réseau dans Kubernetes.
• Connaissances en conteneurisation (notamment Docker) pour une compréhension des images, conteneurs et volumes.
• Expérience avec YAML pour l’écriture et la lecture des fichiers de configuration Kubernetes.
• Notions d’administration système pour configurer et dépanner les machines et services sous-jacents.
Un entretien en amont avec notre expert permet de prendre en compte le profil de chaque participant (niveau, objectifs et résultats attendus, contexte professionnel, enjeux…) et d’adapter le contenu de la formation si besoin
Machines et infrastructure :
• 1 machine de contrôle principal (ou VM) :
o CPU : 2 cœurs minimum.
o RAM : 4 Go minimum (8 Go recommandé).
o Disque : 20 Go d’espace libre.
• 2 machines (ou VM) supplémentaires pour les nœuds de travail :
o CPU : 2 cœurs minimum chacun.
o RAM : 4 Go minimum chacun.
• Disque : 20 Go d’espace libre par machine.
Système d’exploitation :
• Linux : Ubuntu 20.04
Cette formation ne peut être financée que dans le cadre d’un projet d’entreprise (prise en charge entreprise ou OPCO). Les dossiers à financement personnel et CPF ne sont pas pris en compte.
Public
• Administrateurs système souhaitant maîtriser la gestion et l’exploitation de clusters Kubernetes.
• Développeurs cherchant à déployer et maintenir leurs applications en production sur Kubernetes.
• Ingénieurs DevOps désirant acquérir des compétences pratiques pour automatiser et optimiser les déploiements applicatifs.
• Architectes Cloud responsables de la conception d’infrastructures scalables et résilientes dans des environnements de conteneurs.
Dernière mise à jour
Bon à savoir
Evaluez votre niveau
Sessions garanties
La majorité de nos sessions proposées en distanciel sont garanties. Elles peuvent être enregistrées à la demande.
Travaux pratiques
Les Modules
de formation
o Installation avancée de Kubeadm pour mettre en place un cluster Kubernetes à nœud unique ou multi-nœuds.
o Exploration des commandes kubectl et des alias utiles pour une administration rapide et efficace.
o Création de fichiers YAML pour configurer et déployer une application évolutive avec plusieurs réplicas.
o Techniques de résolution des erreurs courantes (CrashLoopBackOff, ErrImagePull) dans les déploiements Kubernetes.
o Exploration des types de services (ClusterIP, NodePort, LoadBalancer) pour exposer les applications.
o Utilisation des ConfigMaps pour la gestion des paramètres d’environnement et des Secrets pour sécuriser les informations sensibles.
o Concepts de stockage persistant, création et utilisation des PV et PVC.
o Configuration de readiness et liveness probes pour garantir la disponibilité des applications.
o Configuration des quotas et des limites de ressources pour optimiser l’utilisation des pods.
o Mise en place et configuration de l’Horizontal Pod Autoscaler (HPA) pour un scaling dynamique des pods.
o Organisation des ressources en utilisant des Namespaces et définition de quotas pour mieux gérer les ressources.
o Techniques de mise à jour continue et gestion des rollbacks pour des déploiements stables.
o Configuration de l’Ingress pour exposer des applications et gérer le routage avancé.