En direct de Barcelone. Comme bien d'autres éditeurs - dont tout dernièremement Appian - Workday embrasse avec gourmandise l'IA. Après avoir donné un aperçu des fonctions qui vont pleinement en tirer parti (description de postes, détection des talents, gestion des notes de frais...) devant un parterre de clients et partenaires européens à l'occasion de sa conférence Rising 2023 de Barcelone (14-16 novembre), nous avons eu l'occasion d'en savoir plus sur sa mise en oeuvre et impacts associés. Et avant tout de prendre aussi la température sur son adoption en particulier en France. « Les niveaux de maturité des clients en France diffèrent », nous a expliqué Hubert Cotté, directeur général de Workday France. Parmi les entreprises à se jeter dans le grand bain, Sanofi et Michelin qui embarquent l'IA dans leur solution en gestion des compétences de l'éditeur en ayant activé ce service. Car il faut savoir que toutes les dernières fonctions IA annoncées par Workday vont être mis à disposition de tous ses clients à partir de mars 2024 et jusqu'à la fin de l'année prochaine.

« Pour toute la partie où l'IA va pousser de l'information contextualisée à un utilisateur par l'IA générative, il ne devrait pas y avoir de souci d'adoption », poursuit Hubert Cotté. « On ne peut pas dire que le marché français n'est pas mature pour digérer des cas utilisateurs d'IA dans Workday, certains oui ». Après avoir pu nous entretenir avec des représentants RH de Thales et d'Air Liquide, alors que le spécialiste en systèmes de défense pourrait se montrer intéressé tout en restant prudent sur une éventuelle décision de se lancer, chez le poids-lourd industriel de l'énergie l'heure est d'abord à la consolidation et à la conduite du changement associée à la migration de SAP vers Workday, les préoccupations liées à l'IA - dans le domaine RH en tout cas - n'étant vraiment pas dans sa to-do-list. « Pour d'autres clients ayant des changements de processus majeurs, des aspects culturels peuvent jouer mais il existe de vrais enjeux d'accompagnement pour y aller », admet Hubert Cotté. Pour le dirigeant, la mise en oeuvre de l'IA est bel et bien « dans la tête de 100 % des clients à qui l'on parle ». Parmi les plus avancés sur le sujet, Accenture, poussé par de très forts enjeux de monétisation de ses services.

L'audit de risque lié à l'IA bien placé chez les clients français

Pour accompagner ses clients vers l'adoption de l'IA, Workday mobilise des compétences spécifiques. « Nous avons des experts en architecture qui expliquent le data processing, des équipes juridiques sur les enjeux en protection des données personnelles, etc. », indique Hubert Cotté. Mais par rapport à d'autres régions - en partie l'Asie et dans une moindre mesure les Etats-Unis - l'Europe n'appréhende pas ce sujet de la même façon. « En Europe, l'adoption de l'IA se fait par les risques plutôt que sur l'opportunité business », fait savoir Pierre Gousset, vice-président EMEA avant-ventes de Workday. Les clients du fournisseur qui veulent profiter - gratuitement - des fonctions qui seront en disponibilité générale à partir de mars prochain (avec la vR1 de Workday), doivent donc accepter formellement de les activer via la signature d'un accord de service d'innovation. A noter qu'il ne s'agit pas d'un accord global et se révèle en fait très granulaire, fonction par fonction, solution par solution. « On sélectionne le service que l'on veut activer, le périmètre des données que l'on veut utiliser dans le cadre d'une inférence ML et celui des données utilisées pour sortir une recommandation », poursuit Pierre Gousset. « Nous informons le client du périmètre et des sources de données utilisées par le modèle pour fournir le service rendu qui peut être une recommandation d'automatisation de tâche ». Un document additionnel est également fourni dans le cadre de cet accord pour savoir comment sont traités les biais potentiels. « Des données ne sont jamais utilisées, comme celles d'ethnicité en Europe car cela introduirait des biais que l'on ne pourrait pas contrôler par des technologies de sampling ou d'over sampling », précise Pierre Gousset.

Contrairement à ce que l'on pourrait penser, l'activation des derniers services IA de Workday ne se fait donc pas d'un simple clic. Au contraire puisqu'elle se doit, sauf si le client est pressé et veut aller vite, d'être précédée par d'une analyse et d'un audit de risque, de sécurité et des enjeux juridiques associés. Sur ce point, le fournisseur se montre cependant rassurant : « nous travaillons avec la Commission européenne depuis 2019 pour réfléchir à l'IA et nous avons développé notre propre framework par les risques dès 2019 pour être prêt sur les risques IA associés, son utilisation dans des cas d'usage, avec une obligation de transparence », souligne Pierre Gousset. Objectif pour l'éditeur : rassurer les entreprises qui activent ses services IA pour savoir quelles données sont concernées, sur la façon dont le modèle fonctionne, à quelles fins, pour quels traitements sur les données, et comment cela va marcher. « Pour traiter les hallucinations, nous avons une approche dans notre LLM basé sur notre propre structure, nos assets et qui s'appuie sur un set de données maitrisées », fait savoir Pierre Gousset. « Plutôt que de parler de transparence, nous essayons de montrer qu'il s'agit d'une IA explicable [...] l'inférence est traitée par la plateforme et nos clients savent exactement quand l'inférence est générée, combien de temps les données vont être disponibles dans la data platform, quand elles seront purgées, le déroulement et le temps des inférences crées à la volée dans une ATV dans lequel s'applique aux données localisées chez AWS à Francfort et auquel aucun employé de Workday ne peut accéder ».

Des modèles moins propices aux erreurs

Cela fait de nombreuses années que Workday développe des fonctions d'IA a repose sur cela sur deux équipes de 250 personnes. « Ce sont des experts en apprentissage automatique d'une part qui comprennent les grands modèles de langages, et d'autre part des experts en applications métiers », nous a expliqué Sayan Chakraborty co-président de Workday. Au fil des ans, l'éditeur a fait évoluer ses technologies IA pour se tourner à partir de 2012 sur les réseaux neuronaux qui peuvent être employés dans la résolution des grands problèmes et qui sait aussi se montrer aussi efficace pour la traduction linguistique. Mais c'est à partir de 2017-2018 que Worday s'en est servi dans les grands modèles de langage. « Nous avons parallélisés les réseaux neuronaux pour les mettre à l'échelle en atteignant une taille qui n'avait jamais été possible auparavant », poursuit Sayan Chakraborty. Pour répondre à ses besoins d'IA, le fournisseur a construit une infrastructure de pipeline ML propriétaire sur laquelle les données des clients ayant accepté de partager de façon sécurisée leurs données tournent. « Nous créons aujourd'hui des ensembles de données anonymisées et synthétisées afin que la confidentialité soit préservée et que la propriété intellectuelle soit protégée », assure le co-président de Workday. Ces ensembles de données qui sont utilisées pour former les actuels modèles et entrainer ses LLM comme GPT ou open source comme Falcon ou Llama. « Nous utilisons nos propres modèles mais avons aussi passé des accords avec Google ou Amazon. « Nous utilisons toutes les différentes options développées en interne ou via des tierces parties », avance Sayan Chakraborty.

Ces grands modèles sont-ils propices aux fameuses hallucinations ? Pour les éviter, Workday a sa solution : « notre approche en général est d'utiliser des modèles plus petits formés sur des données de haute qualité pour éviter d'autres problèmes », indique le co-CEO. « Ces problèmes sont ceux que vous voyez dans des modèles formés sur Internet à très grande échelle qui n'ont pas leurs données propres et qui produit ce résultat ». Workday assure ainsi que ses modèles sont meilleurs dans de nombreuses dimensions et produisent de meilleurs résultats. « Nos modèles sont considérablement plus petits que d'autres à 300 ou 400 milliards de paramètres parce qu'ils sont sur des données très ciblées. Nous formons un LLM expert en déterminant quel modèle peut être meilleur pour répondre à telle ou telle question pour tel ou tel usage », indique Sayan Chakraborty.

Une task force sur l'IA éthique chez Workday

Dans le cadre de son travail de transparence de l'usage des données, Workday a par ailleurs créé une équipe d'IA éthique de 5 personnes qui travaille étroitement en lien aussi bien avec les experts techniques que métiers de l'éditeur. « Un bon nombre de personnes s'interroge sur les risques et les hallucinations liées à l'IA », nous a indiqué Kelly Trindel, responsable de l'équipe IA éthique chez Workday. « Nous suivons de près la qualité des données de différentes populations et on analyse des comparaisons de genre et des métriques de précisions pour voir ce qui se passe et effectuer des tests. Il faut des humains pour cela, avec des datascientists et des data engineers qui travaillent pour améliorer le développement des produits et l'expérience utilisateur ».

Kelly Trindel

Kelly Trindel est responsable IA éthique de Workday. (crédit : D.F.)