Formation Apache Kafka

  • Référence : PYCB041
  • Durée : 21 heures
  • Certification : Non
  • Eligible CPF : Non

CONNAISSANCES PREALABLES

  • Connaissance de l'écosystème hadoop et bases de programmation dans un langage objet (java ou scala ou python)

PROFIL DES STAGIAIRES

  • Chefs de projet, développeurs souhaitant mettre en oeuvre kafka pour la distribution de mesages.

OBJECTIFS

  • Comprendre le fonctionnement de kafka
  • Acquérir les bonnes pratiques de distribution de messages
  • Savoir configurer kafka pour intégrer les données de différents formats et de sources différentes

METHODES PEDAGOGIQUES

  • Mise à disposition d’un poste de travail par participant
  • Remise d’une documentation pédagogique papier ou numérique pendant le stage
  • La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions

METHODES D'EVALUATION DES ACQUIS

  • Auto-évaluation des acquis par le stagiaire via un questionnaire
  • Attestation de fin de stage adressée avec la facture

FORMATEUR

Consultant-Formateur expert Bigdata

CONTENU DU COURS Bigdata

1 - Introduction

  • Le projet Kafka : historique, fonctionnalités, principe de fonctionnement
  • Présentation de l’achitecture et du rôle de chaque composant : broker, producer, consumer Liaison avec Zookeeper

2 - Mise en oeuvre

  • Préconisations d’installation et prérequis
  • Travaux pratiques: installation et lancement de zookeeper et du kafka-server, Création d’un topic simple, Mise en oeuvre d’une chaîne de base
  • Visualisation des messages avec kafka-console-consumer

3 - Multi-broker

  • Etude de la configuration du broker
  • Travaux pratiques : création d’une configuration multi-broker, démarrage de plusieurs noeuds

4 - Applicatif

  • Conception d’applications avec Kafka. Principe de fonctionnement
  • Travaux pratiques : Développement de prototypes en Python, Java, Scala, Couplage avec SparkStreaming en mode batch, en mode continu, Principe et architecture de Kafka Streams, Exemples avec KSQL

5 - La réplication

  • Facteur de réplication
  • Partitions
  • Travaux pratiques : tests de haute disponibilité dans une configuration multi-noeuds

6 - Kafka Connect

  • Présentation des fonctionnalités : intégration de données d’origines multiples, modes de fonctionnement (standalone ou distribué)
  • Types de connecteurs
  • Travaux pratiques : configuration de connecteurs, ingestion de données, création d’une chaîne de transformation

7 - Sécurisation

  • Chiffrement SSL et authentification SASL
  • Sécurisation de l’infrastructure : Zookeeper, proxy Rest

8 - Exploitation

  • Mise en oeuvre de kafka-tool
  • Gestion des logs
  • Détection de pannes : méthodes et outils
  • Benchmarks
Cookies