03 20 61 95 06

Formation Kafka & Confluent Platform Niveau Avancé


  • KCP-2B
  • Durée : 5 jours
  • Tarif : 3835 € HT

96%

Taux de satisfaction clients
(sur 1645 évaluations du 19/05/21 au 28/02/25)

Voir les avis

Objectifs

A l’issue de la formation le participant sera capable de :
Surveiller, dépanner et optimiser un cluster Kafka en production.
Mettre en place un projet fil rouge pour appliquer les concepts tout au long du bootcamp.
Introduire progressivement les outils et concepts pour éviter une surcharge d’informations.
Acquérir des compétences concrètes en tuning des performances de Kafka.

Prérequis

Un entretien en amont avec notre expert permet de prendre en compte le profil de chaque participant (niveau, objectifs et résultats attendus, contexte professionnel, enjeux…) et d’adapter le contenu de la formation si besoin.

Public

Professionnels de l’informatique

Dernière mise à jour

Programme mis à jour le 21 mars 2025
enveloppe Cette formation vous intéresse ? Contactez-nous

Bon à savoir

Evaluez votre niveau

Pour vous aider à bien choisir votre formation, nous vous proposons soit un entretien avec le formateur soit un test d’évaluation. Cela vous assurera que vous disposez des connaissances nécessaires pour suivre la formation dans des conditions optimales.

Sessions garanties

La majorité de nos sessions proposées en distanciel sont garanties. Elles peuvent être enregistrées à la demande.

Travaux pratiques

Nos formations comprennent de nombreux travaux pratiques pour un meilleur apprentissage (60 % de pratique). Nous proposons également de travailler sur vos données pour une meilleure expérience.
modules

Les Modules
de formation

Module1
Jour 1 : Installation, Configuration et Premiers Tests

Matin

• Présentation de Kafka et Confluent Platform
• Rôle des composants clés (Brokers, ZooKeeper, Producers, Consumers)
• Projet fil rouge : Déploiement d’un cluster Kafka (Docker & Kubernetes)
• Vérification du bon fonctionnement avec kafka-topics, kafka-console-producer et kafka-console-consumer
Après-midi (100 % pratique)
• Ajout de nouveaux Brokers et test de réplication
• Exercice progressif : Simulation et résolution de pannes simples
o Perte d’un broker (Réaffectation des partitions)
o Mauvaise configuration d’un Producer Détection et correction des erreurs
Module2
Jour 2 : Surveillance et Monitoring Progressif

Matin

• Détermination des besoins métiers et SLA
• Présentation des métriques JMX et de kafka-exporter
• Introduction de Prometheus & Grafana (sans surcharger les participants avec trop d’outils)
Après-midi (100 % pratique)
• Projet fil rouge : Intégration de Prometheus et Grafana pour le monitoring
• Exercices progressifs :
o Détection d’un ralentissement avec JMX Metrics
o Identification d’un Consumer désynchronisé
o Analyse des logs Kafka (kafkacat, jq)
Module3
Jour 3 : Dépannage et Gestion des Incidents

Matin

• Stratégies de dépannage : méthodologie et outils (kafka-topics, kafka-consumer-groups)
• Problèmes fréquents des Brokers et Clients (partitioning, réplication, offsets)
Après-midi (100 % pratique)
• Projet fil rouge : Injection d’incidents sur le cluster Kafka (partition corrompue, arrêt d’un broker)
• Ateliers :
o Débogage d’un Consumer bloqué
o Rétablissement d’un Broker en échec
o Simulation d’un problème de rebalancing
Module4
Jour 4 : Tuning Avancé & Résolution de Problèmes Complexes

Matin

• Stratégies de tuning : impact du nombre de partitions, buffers, compression
• Optimisation des performances des Producers et Consumers
Après-midi (100 % pratique)
• Projet fil rouge : Ajustement des paramètres du cluster pour améliorer la latence
• Exercices avancés :
o Ajustement des batch sizes et acks
o Réduction des latences avec la compression et les buffers
o Analyse des performances via Prometheus & Grafana
Module5
Jour 5 : Automatisation, Kafka Connect & Étude de Cas

Matin

• Kafka Connect & Confluent Schema Registry
• Automatisation des alertes et monitoring avancé
Après-midi (100 % pratique)
• Projet fil rouge : Ajout d’un connecteur JDBC pour envoyer les données IoT vers une base PostgreSQL
• Étude de cas post-mortem : Analyse d’un incident sur un cluster réel
• Débriefing & best practices pour la mise en production

Les prochaines
sessions de formation

Sur demande
Vous souhaitez organiser cette formation à une date spécifique ?Contactez-nous en remplissant le formulaire ci-dessous
08 septembre 2025
27 octobre 2025
15 décembre 2025
09 février 2026

Cette formation vous intéresse ? Contactez-nous !

    Les données personnelles collectées sont destinées à Access IT Company et utilisées pour traiter votre demande et, lorsque vous ne vous y êtes pas opposé, vous communiquer nos offres commerciales. Les données obligatoires vous sont signalées sur le formulaire par un astérisque. L’accès aux données est strictement limité par Access IT Company aux collaborateurs en charge du traitement de votre demande. Conformément au Règlement européen n°2016/679/UE du 27 avril 2016 sur la protection des données personnelles et à la loi « informatique et libertés » du 6 janvier 1978 modifiée, vous bénéficiez d’un droit d’accès, de rectification, d’effacement, de portabilité et de limitation du traitement des donnés vous concernant ainsi que du droit de communiquer des directives sur le sort de vos données après votre mort. Vous avez également la possibilité de vous opposer au traitement des données vous concernant. Vous pouvez exercer vos droits en contactant le DPO à l’adresse suivante : dpo@access-it.fr ou à l’adresse postale suivante 2, Allée Lavoisier, 59650 Villeneuve d’Ascq. Pour plus d’informations sur le traitement de vos données personnelles par Access IT Company, veuillez consulter notre politique de confidentialité disponible sur notre site internet à l’adresse suivante : https://formation.access-it.fr/politique-de-confidentialite/