Le point de départ : un stock de données fragmenté

La circulation et la centralisation des données de gestion est un enjeu fort d’efficacité collective au sein des organisations. La mise en place des ERP, comme Sage X3, constitue un premier élément de réponse. Une base de données unique centralise l’information, qui circule entre tous les processus et métiers automatisés par l’ERP. Le Cloud a apporté une deuxième évolution, en permettant à des acteurs distants de participer plus facilement au fonctionnement collectif. Et, pour les données de facturation tout au moins, l’instauration de la facture électronique apporte une nouvelle brique à l’édifice de fluidification, avec la possibilité d’échanger de façon normalisée de l’information structurée dans une perspective interentreprises.

Pour autant, des pans entiers des systèmes d’information restent fermés les uns aux autres, comme autant de silos applicatifs. Ce sont les applications de gestion qui interopèrent avec l’ERP, comme une BI, un outil CRM ou une application de gestion logistique. Ce sont aussi les applications bureautiques (Office) et tous les outils spécifiques aux métiers. Dans la configuration habituelle, les outils interopèrent mais les données restent stockées dans chaque outil.

Or, l’avènement de l’intelligence artificielle vient questionner cette distribution en silos de l’information d’entreprise. En effet, deux cas de figure se présentent. Soit on exporte les données dans un outil externe, avec tous les inconvénients que cela comporte, en termes de sécurité et de limitation du potentiel (Voir dans le même dossier, Retour d’expérience : l’IA agentique s’assied à côté des commerciaux). Soit on intègre à la solution de gestion principale un agent IA, comme Sage Copilot dans les solutions Sage, par exemple. Cette option résout le problème de sécurité et permet à l’intelligence artificielle d’interagir avec 100 % des données.

Mais les données disponibles dans les autres applicatifs qui composent le système d’information restent inaccessibles pour l’agent IA. Ce qui est un problème car elles constituent bien souvent une clef d’interprétation indispensable. Fondamentalement, un outil IA intégré est plus efficace qu’une IA généraliste externe. Mais il reste coupé d’une partie du contexte et des pratiques métiers, qui permettraient d’éclairer de façon beaucoup plus fiable la prise de décision.

Un protocole open source pour standardiser les échanges de données contextualisées

Dès lors, quelles solutions avons-nous aujourd’hui pour faire en sorte que l’agent IA interagisse avec 100 % des données du système d’information, quel que soit l’applicatif où elles sont traitées et stockées ? Sachant qu’on estime qu’une entreprise utilise en moyenne plus d’une centaine d’applications SaaS.

La première solution est de mettre en place un processus ETL (Extract Transform Load). Ce processus consiste à extraire et à transformer des données provenant de sources multiples. Puis à les regrouper (charger) vers un entrepôt de données unifié. L’inconvénient est que ce processus demande du temps et des ressources, avec des schémas rigides et des règles prédéfinies. C’est pratiquement peu compatible avec une organisation souple et réactive, qui doit pouvoir rapidement faire évoluer son système d’information.

La deuxième solution consiste à développer une interface par modèle d’IA et par application de gestion. Vu le nombre d’interfaces à générer, cette hypothèse est également peu réaliste. En outre, comme avec l’ETL, cette option induit une forte rigidité, bousculée à chaque intégration d’un nouvel applicatif au système d’information. 

Le choix, jusqu’à présent, était donc de procéder à des développements longs et coûteux pour interconnecter un maximum de données ou d’accepter de ne prendre en compte qu’une partie des informations. Avec le risque de ne pas alimenter l’agent IA avec suffisamment d’éléments de contexte pour éclairer véritablement la prise de décision.

C’est pourquoi le Model Context Protocol (MCP) représente une solution réellement disruptive. En effet, le MCP constitue un protocole universel, en remplacement de toutes ces interfaces. De plus, il garantit une interopérabilité sécurisée, conforme aux exigences du RGPD1. Le MCP est de ce fait comparable à une connexion USB-C, qui accepte toutes les configurations. Il permet à n’importe quel grand modèle de langage sous-tendant un agent IA d’accéder à n’importe quelle source de donnée. C’est clairement une révolution.

Une avancée majeure qui préserve la sécurité des systèmes d’information

Pouvoir raisonner sur un ensemble de données sans avoir à les collecter est en outre un avantage en termes de sécurité. Sortir les données de leur applicatif induit en effet toujours une exposition à la fuite, la dégradation ou la perte.

À cette précaution s’ajoute le fait que l’agent IA va lire les données en fonction des filtres de sécurité appliqués à son commanditaire. En clair, les droits éventuellement restrictifs appliqués à l’opérateur qui lance la requête sont maintenus pour tous les chemins empruntés par l’agent IA en recherche d’éléments de contexte. La voie est dégagée mais elle n’est pas pour autant libre au-delà des autorisations attachées à chaque utilisateur.

Enfin, chaque interaction médiée par le MCP est entièrement observable. Cela offre aux entreprises une visibilité inédite sur la manière dont agit l’intelligence artificielle. En effet, le MCP garantit que les agents IA mis en œuvre opèrent avec clarté, contrôle et confiance.

Pour l’écosystème Sage : une nouvelle étape dans la transformation digitale

Chez Sage, le MCP est au cœur de la manière dont l’éditeur entend construire une intelligence artificielle fiable et responsable. En test dans son programme Sage AI Developer Solutions, le Model Context Protocol offre un moyen de confiance pour orchestrer des comportements d’agents en plusieurs étapes, tout en conservant une sécurité et une supervision complètes.

Côté éditeur, le protocole MCP permet d’ajouter une couche de confiance et de contrôle dans les solutions de gestion. C’est vrai notamment pour les processus financiers, où la précision est cruciale. Une nouvelle étape de limitation des erreurs et des fraudes s’engage, toujours en raison d’une meilleure appréciation des données de contexte.

Par ailleurs, la stratégie conduite par Sage approfondit la dimension de conseil portée par ses partenaires intégrateurs. En effet, le protocole soutient un renforcement de la contribution stratégique aux entreprises accompagnées. Par exemple, dans l’aide à la définition des processus métiers et à la gouvernance opérationnelle. Surtout, la généralisation de l’usage des serveurs MCP orientera les partenaires vers de nouveaux métiers. On peut imaginer que l’intégrateur qui passait 60 % de son temps à maintenir des connecteurs et des interfaces pourra utilement investir de nouvelles disponibilités de réflexion dans l’urbanisation globale du système d’information.

Enfin, côté partenaires technologiques, le MCP leur permettra d’innover en toute confiance. Car le protocole leur donne les moyens de créer des agents puissants qui se connectent directement aux produits Sage. Il sera demain beaucoup plus facile – et rapide – d’ajouter ou de retrancher un applicatif en fonction de l’évolution stratégique de l’organisation. Les silos demeurent pour protéger les données mais n’entravent plus le potentiel de l’intelligence collective. Et la notion d’écosystème collectif prend une nouvelle dimension ! 

En conclusion, le MCP combine puissance, traçabilité, gestion des autorisations et compréhension du contexte. Il garantit que chaque action de l’IA est entièrement observable, conforme et alignée avec le niveau de confiance que les entreprises peuvent attendre d’un éditeur comme Sage.

www.sage.com