Environ 6 000 personnes , clients et partenaires, se sont données rendez-vous à la Porte de Versailles à Paris pour assister à l’AI Tour organisé par Microsoft France. L’occasion pour l’éditeur de donner la parole aux clients sur l’adoption de l’IA dans différents secteurs, mais aussi de présenter les récentes annonces autour de la suite bureautique et collaborative Microsoft 365. Après une très courte introduction de Corine de Bilbao, présidente de Microsoft France, Judson Althoff, directeur commercial de Microsoft a fait le déplacement des Etats-Unis pour assurer le service après-vente et multiplier les démonstrations sur scène des avantages de Cowork Copilot qui s’appuie sur Claude d’Anthropic ou les capacités des agents IA dans les applications comme Excel, Word ou Powerpoint.

Judson Althoff, directeur commercial de Microsof, a multiplié sur scène les démonstrations des dernières évolutions de M365. (Crédit JC)
Sans s'attarder du tout (étonnemment ou politiquement ?) sur les éléments de souveraineté, le directeur a préféré se focaliser sur deux éléments clés selon lui : la confiance et l’IA agentique. Sur le second, il précise qu’ il « s’agit de la prochaine grande transformation des entreprises en ajoutant des capacités d’action, de raisonnement complexe à celui de la génération de contenu ». Pour cela, Judson Althoff met en avant les différentes briques logicielles comme Work IQ, Foundry IQ et Fabric IQ pour apporter de l’analyse sémantique, du contexte métier et des bases de connaissances aux agents IA. Il insiste par ailleurs sur le volet sécurité, « il ne peut pas y avoir d’IA sans confiance ». Dans ce cadre, Agent 365 (qui sera commercialisé le 1er mai à partir de 15$ HT par mois) répond à cette problématique. Il est accessible via le Centre Administration M365 pour que les équipes IT puissent gérer les agents utilisés par les employés et restreindre les accès aux données. L’outil repose sur les offres de sécurité Defender, Entra ID et Purview de Microsoft.
La santé à l’heure de la gouvernance des projets IA
Cette question de la gouvernance et de la sécurité de l’IA a été au cœur des discussions des tables-rondes organisées sur la thématique de la santé. Alexandre Drezet, directeur de l’innovation à l’hôpital Foch à Suresnes explique « nous avons très vite posés le constat que l’IA allait transformer la manière de soigner, la manière de faire des professionnels et en ce sens, nous avons structuré une gouvernance pour accompagner les projets IA ». Il ajoute avoir « entre 20 et 30 projets en cours avec différents types d’intervenants, externes (éditeurs, cabinet de conseil,…) et internes (datascientists, ingénieurs,…) ». Pour le responsable, la gouvernance de l’IA comprend plusieurs éléments « du partage d’informations pour assurer la transparence de l’IA, le respect des règles éthiques, la conformité et la sécurité des données sensibles ». Ce travail est essentiel et « constitue un levier d’accélération pour le déploiement à l’échelle de l’IA ». L’hôpital a récemment déployé en test un système de compte-rendu de consultation basé sur l’IA. Un millier de consultations ont déjà été réalisées avec l'outil selon l'établissement, en urologie ou en neurologie, entre autres.

Alexandre Drezet, directeur de l’innovation à l’hôpital Foch à Suresnes considère que la gouvernance de l'IA est un levier d'accélération pour le passage à l'échelle de l'IA. (Crédit JC)
Marcello Bellato, DSI de Guerbet, reprend ces éléments mais ajoute « qu’il faut aussi avoir dés de le début du projet une approche traditionnelle de la gouvernance à savoir le contrôle du budget, des livrables, le cahier des charges bien ciblé,… ». Le spécialiste des liquides de contraste injectés pour certains examens comme les IRM a utilisé l’IA pour améliorer le traitement et l’analyse du dossier de traçabilité des produits pharmaceutiques. « Le dossier comprend une centaine de pages et notre enjeu était d’aider les opérateurs qui doivent remplir les dossiers et les contrôler à faire moins d’erreurs et en moins de temps possible », précise le dirigeant. La société a donc développé un algorithme qui a appris à lire les dossiers et à identifier les erreurs pour les remonter aux contrôleurs. Un gain de temps pour ces derniers, « mais il s’agit seulement d’une assistance », souligne Marcello Bellato avant d’ajouter, « l’humain doit garder le contrôle final de la validation ». Il regarde néanmoins la prochaine évolution de l’IA agentique avec quelques interrogations sur la confiance accordée dans les agents IA, sur le plan de la sécurité, de la gestion des identités, des permissions, des accès,… « L’IA agentique repose une multiplication de confiances accordées à chaque agent », s'inquiéte-t-il. Là encore la question de la gouvernance prend tout son sens.

Commentaire