Développer avec Kafka

En 1 journée, vous découvrez l'écosystème Kafka. Vous comprenez son rôle dans les architectures event driven ou micro-services, ses usages et les bonnes pratiques de développement associées.

Présentiel ou Distanciel
1 jour
725 € H.T
Java, Docker
Ratio théorie / pratique : Ratio théorie / pratique : 50% / 50%
(13)
Dernière mise à jour : 12/2024

Description

Kafka est devenu un composant indispensable de beaucoup d'architectures event-driven et micro-services.
Il fait en effet partie de la catégorie des brokers de messages et est conçu pour traiter de très grands volumes de message. Sa scalabilité est assurée par la possibilité de déployer les serveurs Kafka sous forme de clusters avec une logique de partitionnement des messages qui combinée à un mécanisme très performant de lecture/écriture séquentielle des informations sur disque permet à Kafka de maintenir un très haut niveau de performances malgré l'augmentation du nombre de messages. La tolérance aux pannes fait aussi partie des atouts offerts par Kafka.
Dans Kafka, les messages sont stockés dans des Topic.
Pour utiliser Kafka de façon optimale dans ses projets, il est crucial de comprendre son mode de fonctionnement, ce qui le différencie des autres brokers de messages et les bonnes pratiques d'utilisation et de configuration.

Icône Objectifs
Objectifs

Savoir développer et configurer des producers et des consumers. Comprendre les bonnes pratiques d'utilisation de Kafka. Connaître l'écosystème autour de Kafka.

Icône Public
Public

Développeurs.

Icône Financement
Financement

Nous sommes certifiés Qualiopi et vous pouvez faire prendre en charge une partie de cette formation selon votre situation.

Icône Prérequis
Prérequis

Développer avec Java et savoir utiliser Docker.

Icône Ressources pédagogiques
Ressources pédagogiques

Les contenus pédagogiques sont dispensés sur deux supports : les slides et le guide de formation.

Programme

Jour 1
Matin9h30-12h30

Le messaging et l’intégration

La structure des messages 

Garantie de delivery

Producer, Broker, Consumer : confirmation, rejeu, gérer le risque de perte de données

Topic : Partitionnement, Replica, Garantie d'ordre, stratégie de rétention

Après-midi14h-18h

Consulter un Topic

Bonnes pratiques : gestion d'erreurs, taille des messages, compression, transactions, back pressure, …

L'écosystème Kafka : 

Confluent vs. Apache

Avro et JSON

Kafka Stream : jointures, topologies et stores

Kafka Connect : source, sink, transformer, développer son connecteur

Prochaine session

La date ne vous convient pas ? Pas de soucis !

Contactez l'équipe Takima pour être tenu au courant des prochaines dates de sessions proposées pour cette formation.

Cela pourrait vous plaire également...

Les participants en parlent mieux que nous !