Basée à Bordeaux, Floa est à la fois une banque en ligne et une fintech, qui propose des services de facilité de paiement (paiement fractionné, différé, mini crédits, etc.). L'entreprise compte plus de 4 millions de clients, particuliers et professionnels, avec une présence importante dans le secteur du e-commerce. Au cours de la matinée Data for breakfast, organisée par Snowflake, le 12 avril à la Station F, Sébastien Robert, chief data officer de Floa, a partagé plusieurs enseignements que lui et son équipe ont tiré lorsqu'ils ont décidé d'adopter la plateforme data cloud de l'éditeur.

Chez Floa, filiale du groupe BNP Paribas depuis 2022, les cas d'usage autour des données ne manquent pas, avec une grande diversité d'applications. Celles-ci vont en effet de la data science à la visualisation, en passant par le data sharing. Les données sont également exploitées à tous les niveaux de l'entreprise, avec des cas d'usage assez classiques, tels le pilotage des activités, la modélisation financière, le marketing ou encore la prévention des risques d'impayés et de fraude. D'autres cas d'usage ciblent plutôt les clients et partenaires, comme le SEO et l'optimisation des parcours, le calcul du cashback, ou encore le partage et la monétisation de données avec l'écosystème B2B de Floa. D'autres encore descendent jusqu'au niveau opérationnel, telle la gestion des ressources dans les centres d'appel ou l'automatisation de processus manuels. « Notre objectif était de pouvoir utiliser la donnée de façon désilotée pour l'ensemble de nos utilisateurs et de nos directions, quel que soit leur degré d'appétence pour les sujets data », explique Sébastien Robert.

Des choix technologiques structurants

En dehors de cette volonté de démocratisation de la donnée, les équipes techniques rencontraient également des enjeux significatifs de passage à l'échelle. Pour répondre à ces besoins, Floa a choisi en 2019 d'utiliser Snowflake sur le cloud Microsoft Azure pour centraliser ses données. En entrée, la plateforme va puiser dans différentes sources de données internes et externes, y compris des données transformées via l'ETL Talend. En sortie, elle alimente plusieurs types d'applications, notamment dans Dataiku pour la partie data science et Tableau pour la visualisation. En complément de la plateforme, la fintech utilise également le catalogue de données de DataGalaxy.

Selon Sébastien Robert, le fait de basculer ce socle data dans le cloud a permis de faire décoller les usages, en fournissant la scalabilité et l'interopérabilité attendues. Mais la transition n'a pas été un long fleuve tranquille. En effet, en chemin, les équipes data ont dû surmonter plusieurs défis. « Choisir les bonnes technologies représente une première étape indispensable, mais cela ne suffit pas. Il y a plein de sujets à aborder en amont et en parallèle, qui vont permettre d'exploiter les données de manière performante et pérenne », souligne Sébastien Robert. En effet, pour lui « l'enjeu n'est pas simplement de faire, mais bien de pouvoir refaire ».

Préparer et documenter les données

Une deuxième étape clef se joue ainsi lors de la construction du socle data. Une fois les données récupérées, il faut en effet les nettoyer, les documenter, réconcilier les données issues de différentes bases, et mener à bien de nombreuses autres tâches indispensables pour mettre à disposition des données classées et préparées, de façon robuste et industrialisée. La banque utilise notamment DataGalaxy pour documenter les données, les usages ou les scores. « La scalabilité nécessite un travail de fond, qu'on ne perçoit pas forcément au départ et qui prend du temps », observe le CDO. Mais, tout fastidieux qu'il soit, ce travail sur les fondamentaux offre de nombreux bénéfices. L'un d'entre eux, et non des moindres, est de faciliter le partage de connaissances au sein des équipes ainsi que l'onboarding des nouveaux collaborateurs. Aujourd'hui, Floa s'appuie aussi sur Snowflake pour partager entre équipes des requêtes récurrentes, à travers un répertoire commun, intégré dans la plateforme.

L'organisation représente un troisième sujet important pour la mise en oeuvre de la stratégie data. « Dans notre cas, nous avions besoin d'un vrai partage des tâches entre les équipes fonctionnelles et techniques », confie Sébastien Robert. Floa a décidé de créer une direction data autonome autour de trois grands pôles : une data factory, un pôle BI et applications analytiques et un pôle data science, avec une équipe transversale pour assurer la coordination. « Nous avons mis en place des communautés autour des outils, avec des personnes référentes sur chacun d'eux », témoigne le CDO. « Nous avons aussi beaucoup travaillé avec la DSI, en particulier sur la mise en production des modèles de machine learning et sur la chaîne d'APIs », poursuit Sébastien Robert.

Prévoir la montée en compétences

La démocratisation de l'usage des données doit également être anticipée. « Notre but est de rendre les données exploitables par tous les collaborateurs de l'entreprise, en démocratisant réellement leur accès, tout en évitant le data chaos », explique Sébastien Robert. Cet objectif nécessite de disposer des bonnes compétences. Pour démarrer plus rapidement, Floa a notamment misé sur son écosystème local et s'est fait accompagner par Business & Decision pour la montée en compétences. Et l'entreprise en mesure aujourd'hui les bénéfices : les notebooks dans Tableau ont été multipliés par 4,2 entre fin 2019 et début 2023, et ceux déployés hors de la direction data par 23.

Enfin, sur certains usages, comme la prévision des risques de fraude, les équipes ont souhaité aller plus loin, pour obtenir du scoring en temps réel. Un travail conjoint des équipes data et machine learning avec la DSI a permis de répondre à ce besoin : aujourd'hui, une quarantaine de modèles temps réel sont en production. « Mais l'évolution de ces modèles dans le temps reste un vrai sujet », pointe le CDO. Il faut, en effet, éviter que les performances ne dérivent au fil du temps, tout en s'assurant que la maintenance des modèles reste gérable pour les équipes, « afin que l'on n'y passe pas tout notre temps », explique Sébastien Robert. Dans ce but, Floa a déployé des systèmes de surveillance et d'analyse des modèles en production. Il s'agit également de définir les bons seuils d'alerte dans ces systèmes, d'autant que les dérives observées peuvent avoir de nombreuses causes, parfois indépendantes du modèle, comme la qualité des données ou la saisonnalité de certaines activités. Enfin, la dernière étape consiste à encapsuler et automatiser des scénarios, afin de faciliter le réentraînement d'un modèle quand cela s'avère nécessaire.