La plateforme de streaming d'événements complète pour Apache Kafka®

Confluent, fondée par les créateurs de l'open source Apache Kafka®, fournit la seule streaming platform qui permet aux entreprises de maximiser la valeur des données.

Confluent Enterprise permet aux leaders d'industries, telles que la vente au détail, la logistique, la fabrication, les services financiers, la technologie et les médias, de déplacer des données de systèmes isolés vers un pipeline de données en temps réel où ils peuvent immédiatement agir.

A LA UNE

Projets d'event streaming avec Kafka streams : de la théorie à la pratique

L'event streaming est un changement inéluctable dans la manière d'appréhender la conception des applications. En 2018, à l'occasion de l'IT Symposium Xpo, Gartner prédisait que la capacité à traiter des événements en temps réel représenterait une aptitude essentielle pour 80% des écosystèmes digitaux d'entreprise d'ici 2020. La réalité du terrain semble confirmer la tendance annoncée par le célèbre cabinet d'étude. Eric Carlier, Ingénieur Système chez Confluent, nous a apporté son éclairage sur le concept d'event streaming et sa traduction opérationnelle dans des secteurs tels que le ecommerce ou le retail.

WEBCAST À LA DEMANDE

Les bénéfices du Streaming de données: Cas d'usage autour d'Apache Kafka

Découvrez comment les entreprises utilisent les architectures événementielles pour transformer leurs activités et comment Apache Kafka sert de base aux applications de données en continu.

Apprenez comment les principaux acteurs du marché utilisent Kafka dans un large éventail de cas d'usage tels que les microservices et l'IoT, les activités bancaires de base et la détection des fraudes, la collecte et la diffusion de données en ligne, le remplacement des ESB, la mise en pipeline des données, le commerce électronique, le déchargement des serveurs centraux, etc..

L'architecture d'Apache Kafka et ses principes fondamentaux expliqués

Cette session décrit la conception interne et l'architecture d'Apache Kafka. Des entreprises telles que LinkedIn envoient aujourd'hui plus d'un trillion de messages par jour via Apache Kafka. Découvrez la conception sous-jacente de Kafka qui permet d'obtenir un débit si élevé.

Comment fonctionne Apache Kafka ?

Découvrez les meilleures pratiques pour développer des applications avec Apache Kafka, à partir d'un aperçu du code de haut niveau pour un producteur et un consommateur de base. Nous aborderons ensuite les stratégies de création de puissantes applications de traitement des flux, notamment la haute disponibilité par réplication, la conservation des données, la conception des producers et leurs garanties.

Intégrer Apache Kafka dans votre environnement

L'intégration d'Apache Kafka avec d'autres systèmes de manière fiable et évolutive est un élément clé d'une plate-forme de streaming événementielle. Cette session vous montrera comment faire entrer et sortir des flux de données de Kafka avec Kafka Connect et REST Proxy, maintenir les formats de données et assurer la compatibilité avec Schema Registry et Avro, et construire des applications de traitement de flux en temps réel avec Confluent KSQL et Kafka Streams.