Les challenges liés à l’opérationnalisation de l’IA 

A l’ère du Big Data, être capable de produire des analyses prédictives à partir des données ou encore travailler à la reconnaissance de patterns est une nouvelle révolution permise notamment par l’arrivée du Cloud Computing et du Big Data. Aujourd’hui incontournables dans de nombreux secteurs, l’efficacité, la finesse et la pertinence d’analyse des technologies d’Intelligence Artificielle ne sont plus à prouver pour les décideurs. Par la multiplication de ses paramètres, la prise en compte de variations infimes dans le traitement de volumes gigantesques de données – l’IA permet notamment l’élaboration de moteurs de recommandation plus pertinents, une logistique et des coûts d’opération/infrastructure optimisés, toujours au service d’une amélioration et d’une ultra personnalisation de l’expérience utilisateur. Mais selon Rémi Forest, Responsable Solutions Engineering chez Confluent : « Face à ces sources de données toujours plus nombreuses, le succès du Machine Learning ne dépend ni de l’algorithme, ni du modèle mais de la logistique d’intégration et de collecte de la data, au regard des nouvelles problématiques en termes de scalabilité, de performance, de disponibilité et de maintien en condition opérationnelle que rencontrent les entreprises.

Vers une nouvelle approche de la data

Alors que l’approche data at rest consistait jusqu’à lors en un traitement de la donnée dite « historique » ou « statique », la révolution du Machine Learning et l’adoption progressive des technologies d’Intelligence Artificielle dans de nombreux secteurs ont rendu nécessaire un « changement total de vision au sujet de la data, de sa collecte et de son traitement. », explique Rémi Forest. « En effet, des notions importantes en Machine Learning, comme la réactivité ou encore la pertinence des modèles, ne sont plus compatibles avec l’intégration de données dites statiques, périssables dans le temps. » 

C’est ainsi que l’approche data in motion « la donnée en mouvement » – initiée par Confluent, se met au service de l’efficacité et la pertinence de l’IA. En effet, cette nouvelle approche du traitement de la donnée en mouvement, rendue possible par l’Event Streaming, consiste en une analyse et une prise en compte en temps réel des flux d’événements. « Ce changement total de paradigme, mis au service de l’IA et plus largement de l’expérience utilisateur, améliore nettement la mise à jour des modèles d’analyse, permettant de les rendre plus fiables, plus pertinents et au final plus efficaces. L’apport de l’Event Streaming sur l’opérationnalisation de l’IA est fondamental. Il permet de gérer la logistique de la donnée sous-jacente à la mise en production des modèles de Machine Learning. », explique Rémi Forest. 

Plateforme d’Event Streaming : une nouvelle vision stratégique à succès 

Créée il y a 7 ans, la plateforme open-source Confluent, dont le cœur technologique est Apache Kafka, vient en aide aux entreprises dans l’opérationnalisation de l’Event Streaming en offrant de nombreuses fonctionnalités en termes de sécurité, d’opération, de monitoring et d’automatisation. Rémi Forest précise : « Confluent accompagne ses clients, tous secteurs confondus, vers une vision stratégique et novatrice du traitement et de l’intégration de la donnée. » Grâce à l’expertise de Confluent, les équipes d’architectes, de data scientists ou encore de DataOps, se forment de bout en bout à l’adoption et l’opérationnalisation de la plateforme Confluent, celle-ci leur permettant un accès simplifié et temps réel à l’ensemble des flux de données présents au sein de l’entreprise, sur site ou dans le Cloud. « Notre offre 100% Cloud permet à nos clients de bénéficier de tous les avantages du Cloud en termes de flexibilité, d’automatisation et de coûts. Elle nous permet notamment de proposer une approche hybride qui va pouvoir s’adapter aux différents niveaux de maturité autour de l’Event Streaming, en élaborant des cas d’usages adaptés aux besoins, que cela soit en matière de détection de fraude, de vue client à 360° ou de maintenance prédictive sur des infrastructures IT ou des environnements de type industriel. »

Véritable système nerveux central, la plateforme d’Event Streaming casse les silos et permet à la donnée circulant à l’intérieur de l’entreprise d’être traitée, collectée et intégrée en temps réel de façon simplifiée. Rémi Forest conclut : « La mise en place de l’Event Streaming avec Confluent ne se veut pas une rupture mais une évolution vers une nouvelle vision stratégique de la donnée dans l’entreprise. »