La plateforme de streaming d'événements complète pour Apache Kafka®

Confluent, fondée par les créateurs de l'open source Apache Kafka®, fournit la seule streaming platform qui permet aux entreprises de maximiser la valeur des données.

Confluent Enterprise permet aux leaders d'industries, telles que la vente au détail, la logistique, la fabrication, les services financiers, la technologie et les médias, de déplacer des données de systèmes isolés vers un pipeline de données en temps réel où ils peuvent immédiatement agir.

A LA UNE

Simplifier l'intégration d'Apache Kafka dans votre environnement : enjeux et mise en oeuvre

L'intégration d'Apache Kafka avec d'autres systèmes est un élément clé d'une plateforme de streaming événementielle. Comment faire entrer et sortir des flux de données au sein de la plateforme de streaming Kafka ?

Zoom sur les méthodes et outils existants pour simplifier l'intégration d'Apache Kafka avec d'autres systèmes.

Projets d'event streaming avec Kafka streams : de la théorie à la pratique

Dans un contexte de compétitivité accrue, les entreprises sont tiraillées entre des exigences difficilement conciliables : accélérer le déploiement des applications, tout en maîtrisant les coûts et en répondant à des standards de qualité toujours plus élevés.

Cet article propose une série de conseil pour repenser son SI et s'engager dans une démarche cloud native

10 mn pour découvrir une fonctionnalité de Confluent

WEBCAST À LA DEMANDE

Les bénéfices du Streaming de données: Cas d'usage autour d'Apache Kafka

Découvrez comment les entreprises utilisent les architectures événementielles pour transformer leurs activités et comment Apache Kafka sert de base aux applications de données en continu.

Apprenez comment les principaux acteurs du marché utilisent Kafka dans un large éventail de cas d'usage tels que les microservices et l'IoT, les activités bancaires de base et la détection des fraudes, la collecte et la diffusion de données en ligne, le remplacement des ESB, la mise en pipeline des données, le commerce électronique, le déchargement des serveurs centraux, etc..

L'architecture d'Apache Kafka et ses principes fondamentaux expliqués

Cette session décrit la conception interne et l'architecture d'Apache Kafka. Des entreprises telles que LinkedIn envoient aujourd'hui plus d'un trillion de messages par jour via Apache Kafka. Découvrez la conception sous-jacente de Kafka qui permet d'obtenir un débit si élevé.

Comment fonctionne Apache Kafka ?

Découvrez les meilleures pratiques pour développer des applications avec Apache Kafka, à partir d'un aperçu du code de haut niveau pour un producteur et un consommateur de base. Nous aborderons ensuite les stratégies de création de puissantes applications de traitement des flux, notamment la haute disponibilité par réplication, la conservation des données, la conception des producers et leurs garanties.

Intégrer Apache Kafka dans votre environnement

L'intégration d'Apache Kafka avec d'autres systèmes de manière fiable et évolutive est un élément clé d'une plate-forme de streaming événementielle. Cette session vous montrera comment faire entrer et sortir des flux de données de Kafka avec Kafka Connect et REST Proxy, maintenir les formats de données et assurer la compatibilité avec Schema Registry et Avro, et construire des applications de traitement de flux en temps réel avec Confluent KSQL et Kafka Streams.