Une ascension express grâce à la donnée ! Après une dizaine d'années dans le conseil, Hugues Even a rejoint BNP Paribas en 2010 pour participer à la création d'une structure de conseil interne au sein d'un des trois grands pôles de du groupe, CIB, la banque dédiée aux grandes entreprises et aux institutionnels. En 2015, Hugues Even a piloté la création d'une équipe dédiée à l'analytique au sein de ce pôle, « avec l'objectif d'utiliser les technologies d'IA pour traiter et visualiser la donnée et créer un laboratoire d'intelligence artificielle ». Une époque où la banque s'organise peu à peu pour structurer son approche de l'IA. En 2018, il devient Chief Data Officer (CDO) de CIB. « En plus des activités d'analytique, j'ai pris la responsabilité de mandats plus réglementaires sur la gouvernance, la qualité et la protection des données. » En particulier en lien avec BCBS 239, une réglementation bâloise qui décrit la manière dont les banques doivent maîtriser la qualité des données en lien avec leur reporting.

« Nous avons créé les postes de CDO dans le groupe au travers de cette approche BCBS 239 structurée au sein d'un grand programme de transformation, appelé RaDAR (Risk Data Aggregation and Reporting) et visant à mettre en place les fondamentaux de gestion, mise en qualité et gouvernance de la donnée », explique celui qui est devenu le CDO de l'ensemble des activités de BNP Paribas en début d'année. Avec, pour principaux relais, la cinquantaine de CDO que compte le groupe, au sein de ses différents métiers, régions et fonctions. Hugues Even coordonne les activités data d'un groupe employant près de 185 000 personnes dans le monde, parmi lesquelles environ 3 000 sont des experts de la donnée.

Quel est votre mandat en tant que CDO du groupe ?

Hugues Even : J'ai les mêmes mandats sur la qualité et la gouvernance, la protection des données ou les fonctions analytiques que lorsque j'étais dans un métier, mais de façon un peu différente. La fonction Group Data Office définit le cadre, les règles, les politiques ainsi que le framework de contrôle. Avec mon équipe, nous jouons également un rôle de coordinateur, pour aider les entités à mettre en place ce cadre opérationnel dans une approche de co-construction avec les métiers. Nous jouons aussi un rôle de promotion, un rôle de mutualisation, en identifiant des innovations intéressantes dans tel ou tel métier et en tentant de les ériger en standards pour le groupe. Sans oublier notre rôle sur l'animation des communautés. La communauté de la data bien sûr, par exemple au travers d'un événement interne appelé la Data Week une fois par an, mais aussi celle sur l'IA, regroupant des équipes de Data Scientists, des chercheurs ou encore des équipes IT. Fin août, nous avons ainsi tenu sur notre campus de Louveciennes une Summer School sur l'IA, qui a réuni 2 000 participants en présentiel et à distance. L'objectif était de partager les expériences sur le thème des IA génératives au sein du groupe, mais enrichies avec des témoignages de partenaires et d'autres entreprises des télécommunications, de la mode ou de la grande distribution.

Vos attributions comportent un volet sur la mutualisation des outils. Existe-t-il un programme de convergence en la matière au sein du groupe ?

Nous opérons cette mutualisation au fil du temps. Ce qui nous intéresse réellement, c'est de capitaliser sur les innovations des équipes sur le terrain. Quand un métier construit, par exemple, une brique d'extraction de données dans des documents, toutes les entités du groupe ayant des processus similaires de traitement doivent pouvoir en profiter. Notre volonté ne consiste pas à construire systématiquement des modèles à mutualiser ; tout un ensemble de librairies Open Source et modèles d'IA performants et spécialisés sont déjà disponibles, y compris en matière d'IA générative. Ce que nous cherchons à mutualiser, c'est la brique IT pour avoir des applications en production, insérées dans les systèmes d'information et capables, par exemple, d'extraire des données de mails, de documents PDF ou d'applicatifs spécifiques à notre activité, à travers une interface ergonomique. Sans oublier de veiller à des fonctionnalités clefs comme la sécurité et la robustesse des infrastructures. Les phases d'interaction entre l'homme et la machine sont essentielles ; elles servent bien sûr à contrôler les résultats, mais aussi à continuer l'entraînement des algorithmes. Extraire des données est finalement relativement simple, c'est l'insérer dans un processus opérationnel qui s'avère complexe.

Les outils de gouvernance de la donnée sont-ils déjà communs au sein du groupe ?

Nous avons défini une gouvernance de données et une solution de Data Management standard pour le groupe dont nous sommes les prescripteurs. À ce titre, nous mettons à disposition des métiers des dictionnaires de données, pour favoriser la disponibilité, la qualité et la sécurité des données. A défaut, nous aurions des référentiels de données éparpillés dans différentes solutions, ce qui serait à la fois contre-productif et source d'erreurs.

En termes budgétaires, comment sont financés les projets data ?

Chaque métier a une équipe consacrée aux enjeux de la data qui définit ses priorités avec une enveloppe budgétaire dédiée. En complément, au niveau du groupe, nous pouvons également financer des projets avec une portée pour l'ensemble du groupe.


« Extraire des données est finalement relativement simple, c'est l'insérer dans un processus opérationnel qui s'avère complexe. » (Photo : Thomas Léaud)

Dans la plupart des secteurs d'activité, se pose la question de l'acculturation des collaborateurs à la donnée. Est-ce que ce sujet vous occupe également ?

Oui, bien sûr. Les data offices ont un savoir-faire et des outils, mais sans l'implication des métiers dans ces sujets d'innovation, d'exploration ou de recherche, nous ne parviendrions pas à résoudre l'équation. Nous avons donc mis en place un catalogue de formations à l'échelle du groupe avec des programmes de montées en compétences ou de transformation de celles-ci. Ce champ de formations s'étend de notions élémentaires, pour apprendre les fondamentaux de la donnée ou du développement, à des modules experts, comme des cursus spécialisés sur des modèles de Machine Learning. Nous formons aussi les collaborateurs à la visualisation de données, qui constitue un réel levier d'efficacité pour ceux qui manipulent de grandes quantités de données. Par ailleurs, via un outil interne, nous connaissons les compétences actuelles des collaborateurs, telles qu'elles sont déclarées par ces derniers, et, en fonction des projections, nous pouvons identifier les compétences que le groupe doit construire. Aujourd'hui, nous considérons par exemple que tous nos collaborateurs sont concernés par la science du prompting, l'écriture d'invites à des LLM. Un cursus est en cours de construction pour leur apprendre à rédiger un prompt de la meilleure manière possible, ce qui n'est pas intuitif, car il faut comprendre comment l'algorithme fonctionne ou les éléments de contexte qui sont nécessaires.

Quelle stratégie avez-vous déployée pour accélérer les usages de l'IA en interne ?

D'abord, la stratégie IA du groupe va de pair avec sa stratégie IT, qui fait partie du plan stratégique Growth, Technology and Sustainability 2025 (GTS 2025) de BNP Paribas. L'IA est un des piliers importants du volet technologique de ce plan, qui comprend également les API, le cloud ou encore l'IT marketplace facilitant l'usage de solutions data et IA par les différentes entités du groupe. Notre ambition est d'avoir 1000 cas d'usage d'IA en production en 2025, dont une centaine de cas d'usage d'IA générative, permettant de créer 500 M€ de valeur par an.

Quels sont les principaux cas d'usage que vous déployez ou prévoyez de déployer ?

Ils se classent en trois grandes catégories d'usages. L'efficacité opérationnelle, d'abord. La banque est un métier où on traite énormément de données structurées et non structurées telles que des pièces justificatives, des contrats, etc. Nous avons besoin de plateformes d'extraction de données pour réduire les temps de traitement et, de ce fait, améliorer l'expérience client. Aujourd'hui, nous extrayons déjà plusieurs centaines de millions de données dans nos différents processus grâce à des solutions d'IA. Ensuite, l'IA peut être exploitée directement au service de l'expérience client, via des assistants conversationnels permettant de gérer de façon automatisée certaines interactions, par exemple pour fournir un premier niveau d'information. Sur ce terrain, les IA génératives apporteront un plus par rapport à des approches scriptées plus classiques grâce à de réels progrès dans la qualité du dialogue. Ce qui est également bénéfique pour l'expérience des collaborateurs, nous testons ainsi l'IA générative pour améliorer un chatbot interne, répondant aux questions des équipes. Enfin, nous utilisons l'IA pour renforcer nos capacités en matière de gestion des risques. Par exemple, pour lutter contre la fraude aux fournisseurs, via la détection de comportements anormaux, ou pour lutter contre le blanchiment, via par exemple de l'analyse de graphes d'échanges commerciaux.


« Sur les assistants conversationnels, permettant de gérer de façon automatisée certaines interactions avec les clients, les IA génératives apportent de réels progrès dans la qualité du dialogue par rapport à des approches scriptées plus classiques. » (Photo : Thomas Léaud)

Comment maîtriser les risques liés aux IA génératives, comme les hallucinations ?

On est aujourd'hui capable de contrôler ces IA, en gérant leur dimension plus ou moins créative. Dans les cas d'usage impliquant des interactions clients, nous demandons à l'outil d'être factuel et rigoureux au travers de différentes étapes de contrôle. Notre approche consiste à utiliser des modèles génériques entraînés sur nos bases de connaissance spécifiques, que l'on parle d'IA publique ou de LLM qui seraient implémentés on-premise, sur nos infrastructures. Ces modèles-là sont pré-entraînés, ce qui fait leur valeur, et nous les adaptons pour qu'ils répondent à nos besoins spécifiques. A ce stade, nous pensons qu'il n'existe pas une solution unique, un LLM unique, capable de répondre à tous nos cas d'usage. Nous étudions ainsi les LLM de taille plus limitée. Nous évaluons donc plusieurs modèles sur différents cas d'usage, pour construire notre courbe d'apprentissage.

Comment estimez-vous votre niveau de maturité sur ces sujets ?

Certains classements nous positionnent comme la première banque européenne en termes d'attractivité vis-à-vis des profils IA. Aujourd'hui, nous avons 700 cas d'usage sur l'IA en production et nous continuons à investir pour atteindre notre objectif de 1000 à horizon 2025.

Comment accueillez-vous l'arrivée annoncée d'une réglementation européenne sur l'IA, l'AI Act ? Est-ce un obstacle à l'innovation pour une banque comme BNP Paribas face à ses concurrentes américaines ?

Toute la question revient à trouver le juste équilibre entre l'innovation et la régulation. Indéniablement, l'IA doit être contrôlée. Quand nous passons une IA en production, une analyse préalable des risques doit avoir été conduite, pour évaluer les résultats attendus, le contexte et les conséquences éventuelles des erreurs. Pour ce faire, nous avons formalisé un programme d'évaluation des risques propre à chaque application. Et cette analyse est validée par une deuxième ligne de contrôle, la direction des risques en l'occurrence, et suivie dans le temps. D'une certaine façon, on retrouve déjà ici les grands principes de l'AI Act.