Alors qu’auparavant chaque application avait une base de données associée dans laquelle elle puisait ses informations, aujourd’hui ce besoin d'immédiateté a entraîné un changement de paradigme dans le traitement de la donnée.

Ce n’est plus à l’utilisateur d’aller chercher la donnée dont il a besoin, mais bien à l’information de lui être poussée en permanence, de la même manière que l’on ne se connecte plus pour accéder aux informations d’un media mais que l’on en reçoit en permanence les notifications.

La donnée n’est donc plus un référentiel statique à interroger, mais un flux d’informations qui se régénère en continu, produites en permanence par des serveurs web, des applications, des terminaux mobiles… Ce flux d’informations en continu, c’est ce qu’on appelle la data in motion.

La data in motion est aujourd’hui essentielle pour permettre aux entreprises de répondre aux enjeux actuels et rester compétitives. Elle permet notamment de relever le défi de la cybersécurité, car pouvoir consulter en temps réel tous les événements ayant lieu sur les périphériques de l’entreprise permet d’être réactif en cas d’activité suspecte.

La data in motion joue également sur l’expérience utilisateur : pour développer des interfaces et des recommandations en conséquence, il faut connaître au mieux son client. Par exemple, dans le cadre d’un moteur de recommandation, il incombe de recevoir et de traiter les données de l’utilisateur, comme ses dernières pages visitées, en temps réel, afin de lui faire des suggestions pertinentes. Il faut pouvoir recevoir et traiter des milliers, voire des millions, d’informations arrivant de différents systèmes d'information, en temps réel.

A noter que la data in motion joue également sur le ROI de certaines applications, comme sur celles de suivi des comptes bancaires par exemple. Ces dernières étant désormais accédées plusieurs fois par semaine (voir par jour) par les utilisateurs, il est nécessaire de déporter la consultation depuis les mainframes vers des bases de données moins coûteuses, tout en s’assurant que les données soient toujours à jour.

Face à ce besoin d’accès immédiat aux données, les utilisateurs ont des attentes de plus en plus élevées, calées sur les standards des géants du web, et les enjeux pesant sur les épaules des entreprises en deviennent conséquents. Fort de ce constat, Confluent a développé sa plateforme cloud-native de distribution des données en temps réel, afin d'offrir une infrastructure adaptée au traitement de cette donnée « en mouvement ».

Cette plateforme se fonde sur trois caractéristiques :

  • Un moteur de « publish/suscribe », permettant à des applications de publier des données et à d’autres de s’abonner à ces flux de données,
  • Des connecteurs préconfigurés pour permettre à de très nombreuses applications (base de données, CRM, SaaS) de publier ou recevoir des évènements sans avoir à faire de développement spécifique,
  • Des outils pour permettre aux de créer simplement des applications de « Stream processing » pour traiter la donnée en temps réel et non plus en batch

Cependant, en fonction de la taille de leur parc applicatif, adopter une telle plateforme n’est pas forcément aisé pour les entreprises. Certaines ont en effet de nombreuses solutions dans leurs systèmes dont elles ne peuvent pas s'affranchir du jour au lendemain.

Comment alors opérer une transition dans le traitement des données, nécessaire pour rester compétitif ? Confluent a identifié une courbe de maturité en cinq étapes. La clef de la réussite est d’y aller progressivement, sans chercher à tout bouleverser du jour au lendemain.

Dans un premier temps, Confluent préconise une phase d’expérimentation. Ensuite, il est possible de développer un premier cas d’usage, au sein d’une seule équipe. Une fois que ce premier projet est maîtrisé, l’entreprise peut mettre en place des cas d’usage plus critiques en production, mais dans des entités séparées et indépendantes dans un premier temps. Seulement ensuite, les cas d’usage critiques peuvent concerner plusieurs entités interconnectées. Si tout cela fonctionne, la maturité est atteinte et l’entreprise peut adopter un système nerveux central.

C’est ce rôle de système nerveux central que joue la plateforme Confluent, en permettant aux entreprises de connecter toutes leurs applications autour de flux en temps réel et de réagir et répondre intelligemment à tout ce qui se passe dans leur secteur.

La plateforme Confluent est sur la plateforme Apache Kafka, offrant des fonctionnalités communautaires et commerciales supplémentaires conçues pour améliorer l'expérience de streaming des opérateurs et des développeurs en production, à très grande échelle.