Si l'IA sans état ou « stateless AI » (dans laquelle un modèle fournit des réponses ponctuelles sans tenir compte du contexte des sessions précédentes) peut être utile à court terme, elle s'avère insuffisante pour des scénarios plus complexes comportant plusieurs étapes. Pour surmonter ces limites, OpenAI introduit ce qu'elle appelle, naturellement, l'IA avec état ou « stateful AI ». Dans ce cadre, le fournisseur a annoncé qu'il proposera bientôt un environnement d'exécution (runtime) avec état en partenariat avec Amazon pour simplifier le processus de mise en production des agents IA. L’environnement fonctionnera en mode natif sur Amazon Bedrock et sera adapté aux workflows des agents et optimisé pour l'infrastructure AWS. Il est intéressant de noter qu'OpenAI a également jugé nécessaire de faire une autre annonce le même jour, pour souligner que rien, dans les autres collaborations, ne modifiait les termes de son partenariat avec Microsoft. Azure restera le fournisseur cloud exclusif des API OpenAI sans état.. « C'est une décision structurelle intelligente », a estimé Wyatt Mayham de Northwest AI Consulting. « Tout le monde peut se réjouir, mais le message sous-jacent est clair : OpenAI devient une entreprise multicloud, et l'ère des partenariats exclusifs dans l'IA touche à sa fin. »

« L'environnement d'exécution avec état sur Amazon Bedrock a été conçu pour exécuter des étapes complexes qui tiennent compte du contexte », a indiqué OpenAI. Les modèles peuvent transmettre la mémoire et l'historique, l'état des outils et des flux de travail, l'utilisation de l'environnement, ainsi que les limites d'identité et d'autorisation. Selon les analystes, cela représente un nouveau paradigme. Les appels API « stateless » sont une « page blanche » parce que « le modèle ne se souvient pas de ce qu'il vient de faire, des outils qu'il a appelés ou de sa position dans un workflow en plusieurs étapes », a expliqué M. Mayham. Si le stateless peut convenir pour un chatbot qui répond à des questions ponctuelles, il est « totalement inadéquat » pour un travail opérationnel réel, par exemple le traitement d'une réclamation client qui passe par cinq systèmes différents, nécessite des approbations et prend des heures, voire des jours, à traiter », a-t-il poursuivi. Les nouvelles capacités avec état donnent aux agents IA une mémoire de travail persistante qui leur permet de conserver le contexte d'une étape à l'autre, de maintenir les autorisations et d'interagir avec de véritables outils d'entreprise sans que les développeurs aient à « assembler des appels API sans état », a pointé M. Mayham. « De plus, la fondation Bedrock est importante car c'est là que se trouvent déjà de nombreuses charges de travail d'entreprise », a-t-il souligné. « OpenAI et Amazon vont à la rencontre des entreprises là où elles se trouvent, sans leur demander de repenser leur architecture de sécurité, de gouvernance et de conformité. L'automatisation sophistiquée de l'IA devient ainsi accessible aux entreprises de taille moyenne, qui n'auront plus besoin d'une équipe d'ingénieurs pour « construire la plomberie à partir de zéro », a-t-il ajouté.

Le stateful parfaitement adapté aux workloads d'entreprise

Sanchit Vir Gogia, analyste en chef chez Greyhound Research, a qualifié les environnements d'exécution avec état de « changement de control plane ». Les environnements sans état peuvent être « plus raffinés » pour des interactions uniques de synthèse, d'assistance au codage, de rédaction ou d'invocation d'outils isolés. Mais les environnements avec état offrent aux entreprises un « substrat d'orchestration managé », a-t-il fait remarquer. « Le stateful prend en charge les flux de travail réels des entreprises impliquant des appels d'outils en chaîne, des processus de longue durée, des approbations humaines, la propagation de l'identité du système, des tentatives multiples, la gestion des exceptions et des pistes d'audit », a déclaré M. Gogia, tandis que Bedrock applique les politiques existantes de gestion des identités et des accès (identity and access management, IAM), les limites du cloud privé virtuel (virtual private cloud, VPC), les outils de sécurité, les normes de journalisation et les cadres de conformité. « Les échecs des projets pilotes résultent majoritairement de la réinitialisation du contexte entre les appels, du désalignement des autorisations, de l'expiration des jetons en cours de workflow ou de l'impossibilité pour un agent de reprendre en toute sécurité après une interruption », a-t-il affirmé. Ces problèmes peuvent être évités dans les environnements avec état.

Cependant, selon M. Gogia, il y a des considérations de second ordre à prendre en compte par les entreprises. Notamment, la persistance d'état augmente la surface d'attaque. Cela signifie que la mémoire persistante doit être chiffrée, régie et vérifiable, et que les limites d'invocation des outils doivent être « étroitement contrôlées ». De plus, les mécanismes de relecture des flux de travail doivent être déterministes et l'observabilité suffisamment granulaire pour satisfaire les régulateurs. Il existe également un « verrouillage subtil dans la dimension », fait savoir M. Gogia. « La portabilité peut diminuer lorsque l'orchestration se déplace à l'intérieur d'un runtime natif hyperscale. Les DSI doivent déterminer si leur future architecture d'agents restera portable dans le cloud ou si elle sera ancrée dans l'environnement AWS. En fin de compte, cette nouvelle offre représente un tournant sur le marché [...] La couche d'intelligence est en train de se banaliser. Nous passons d'une course aux modèles à une course aux plans de contrôle [...] La question stratégique n'est plus de savoir quel modèle est le plus intelligent, mais de savoir quelle pile d'exécution garantit la continuité, l'auditabilité et la résilience opérationnelle à grande échelle ».

Un partenariat avec Microsoft toujours solide et central

L'annonce conjointe faite vendredi dernier par Microsoft et OpenAI concernant leur partenariat fait écho à la réaffirmation de cette collaboration sur laquelle avait insisté OpenAI en octobre 2025. Le partenariat reste « solide et central », les deux entreprises allant jusqu'à le qualifier de « collaboration parmi les plus importantes dans le domaine de la technologie », axée sur la recherche, l'ingénierie et le développement de produits.

Les entreprises ont précisé que :

- Microsoft conserve une licence exclusive et un accès à la propriété intellectuelle (PI) pour tous les modèles et produits OpenAI ;

- Frontier et les autres produits propriétaires d'OpenAI continueront d'être hébergés sur Azure ;

- La définition contractuelle de l'intelligence artificielle générale (Artificial General Intelligence, AGI) et le « processus permettant de déterminer si elle a été atteinte » restent inchangés ;

- L'accord de partage des revenus restera inchangé. Cet accord a toujours inclus le partage des revenus provenant des partenariats entre OpenAI et d'autres fournisseurs de services cloud ;

- OpenAI a la possibilité de s'engager à effectuer des calculs ailleurs, notamment dans le cadre d'initiatives d'infrastructure comme le projet Stargate ;

- Les deux entreprises peuvent rechercher de nouvelles opportunités de manière indépendante.

« Cette déclaration commune semble avoir été rédigée simultanément par trois cabinets d'avocats, et c'est là tout l'intérêt », a fait remarquer M. Mayham. Le point central de l'accord est qu'Azure reste le fournisseur de cloud exclusif des API OpenAI sans état. « OpenAI peut ainsi établir une nouvelle catégorie sur AWS qui échappe à la portée de Microsoft », a-t-il ajouté. Celui-ci pense qu’OpenAI est en fin de compte « sur la corde raide », car l’entreprise devrait étendre sa distribution au-delà d'Azure pour atteindre les clients AWS, qui représentent une part importante du marché des entreprises. « Dans le même temps, OpenAI doit veiller à ce que Microsoft n'ait pas l'impression que la valorisation de son investissement a été dilué ».

Pour M. Gogia, cette déclaration est une « garantie structurelle ». OpenAI doit développer sa distribution sur plusieurs clouds, car les acheteurs professionnels exigent une flexibilité multicloud. Ils ne veulent pas être confinés à un seul cloud, ils veulent pouvoir choisir l'architecture. Celui-ci a également souligné que « les DSI et les conseils d'administration ne veulent pas d'instabilité chez les fournisseurs. Le risque de conflit entre les hyperscalers est désormais une préoccupation des conseils d'administration ».

Une course de fonds pour la quête de puissance de calcul

Par ailleurs, un dernier tour de table financier de 110 Md$ provenant d'Amazon (50 Md$), Nvidia et Softbank (30 Md$ chacun) permettra à OpenAI d'étendre sa présence mondiale et d'« approfondir » son infrastructure, selon l’entreprise. Il est important de noter que ce financement comprend l'utilisation de 3 GW de capacité d'inférence dédiée et de 2 GW de formation sur les systèmes Vera Rubin de Nvidia. Cela s'ajoute aux systèmes Hopper et Blackwell déjà en service chez Microsoft, Oracle Cloud Infrastructure (OCI) et CoreWeave. M. Mayham a qualifié cela de « titre dans le titre ». « Ce n'est pas l'argent qui permet de créer des produits d'IA, mais la puissance de calcul », a-t-il rappelé. À l'heure actuelle, l'accès au hardware Nvidia de nouvelle génération est le « véritable goulot d'étranglement pour toutes les entreprises IA de la planète ». OpenAI s'assure ainsi une « chaîne d'approvisionnement garantie » pour les puces qui alimentent toutes ses activités. « L'argent des trois entreprises finance les opérations et l'infrastructure, mais la capacité et la formation de Nvidia permettent à OpenAI d'utiliser une infrastructure de pointe », a commenté M. Mayham. « Si l’on ne peut pas obtenir les processeurs, l'argent reste simplement sur un compte bancaire. »

L'inférence est désormais l'un des principaux facteurs de coût de l'IA, et M. Gogia a fait remarquer que les systèmes IA de pointe sont limités par les infrastructures physiques : les GPU, la mémoire à bande passante élevée (high bandwidth memory, HBM), les interconnexions à haut débit et autres matériels, ainsi que la capacité électrique au niveau du réseau. Toutes ces ressources sont limitées. Les mesures actuelles ancrent davantage OpenAI dans la pile d'infrastructures, mais elles comportent un risque de concentration. Lorsque le contrôle sur la capacité de calcul est centralisé entre un petit groupe d'hyperscalers et de fournisseurs de puces, le système peut devenir fragile. Pour se protéger, M. Gogia conseille aux entreprises de surveiller la concentration de la chaîne d'approvisionnement. « Sur le plan stratégique, cependant, cette mesure renforce la durabilité d'OpenAI », a-t-il estimé. « Elle garantit le substrat physique nécessaire pour soutenir la mise à l'échelle des modèles de pointe et la croissance de l'inférence dans les entreprises. »