Lors de CiscoLive Europe 2026 à Amsterdam (10-12 février), le fournisseur de San José a présenté AgenticOps et détaillé son initiative Internet of Cognition. L'objectif : permettre aux agents IA de collaborer de manière autonome via une infrastructure ouverte, avec une mémoire collective et des protocoles standardisés pour l'interopérabilité. Avec sa plateforme AgenticOps, dont la version beta pour les environnements datacenter est attendue en juin 2026, Cisco entend apporter visibilité et gouvernance aux systèmes multi-agents déployés dans les entreprises, un défi croissant face à la prolifération des agents IA. AgenticOps se positionne comme le cockpit d’observabilité et d’automatisation des applications LLM et multi‑agents au sein du portefeuille Cisco, en s'appuyant sur une intégration poussée avec Splunk pour l'observabilité des agents IA. Intégré à Splunk Observability Cloud via la fonction AI Agent Monitoring, il visualise les workflows d’agents, collecte une télémétrie enrichie et s’interface avec Cisco AI Defense pour traiter les risques de biais, de fuites de données ou d'injection de prompt. "Sur la partie argentique, nous avons fait un travail de fond avec principalement Microsoft et Splunk", nous a expliqué Guillaume de Saint Marc, vice-président Engineering au sein d'Outshift, l'entité d'incubation technologique de Cisco.

L'équipe d'Outshift a étendu OpenTelemetry pour supporter des métriques spécifiques aux agents : trajectoires de raisonnement, échecs d'appels d'outils, métriques d'évaluation via des "LLM as Judge". Au‑delà de la simple supervision, AgenticOps orchestre également des agents capables de détecter des incidents, d’identifier des causes racines complexes – du réseau au SaaS – et de proposer, voire d’appliquer, des remédiations, dans la continuité des travaux menés avec Swisscom sur la validation de changements réseau par jumeau numérique et systèmes multi‑agents. « Les systèmes multi‑agents nous promettent d’être capables de faire des choses qu’auparavant nous ne savions faire qu’avec beaucoup d’opérateurs dans la boucle », souligne Guillaume de Saint Marc. Face à cette approche très opérationnelle, la solution Mulesoft Agent Scanners de Saleforce, annoncée en janvier dernier, se concentre sur la découverte continue d’agents déployés sur des plateformes comme Agentforce, Amazon Bedrock ou Google Vertex AI, qu’il catalogue dans un registre unifié avec des métadonnées standardisées. Là où Agent Scanners fournit une vue de référence et un plan de contrôle sur l’inventaire des agents et leurs capacités, AgenticOps s’appuie sur Splunk et sur des briques issues d’Agntcy (voir ci-dessous) pour corréler métriques d’infrastructure, qualité sémantique des réponses et traces d’exécution, puis boucler jusqu’à l’automatisation de la résolution 

Le projet Agntcy piloté par la Linux Foundation

Dès 2024, Outshift avait posé les bases de l’Internet des agents, en prolongeant le modèle OSI avec une couche 8 dédiée à la connectivité des agents et une couche 9 centrée sur la cognition, afin de permettre à des agents hétérogènes de différents fournisseurs de collaborer au‑delà des silos de frameworks. Cette vision s’incarne dans Agntcy, projet open source hébergé par la Linux Foundation avec Cisco, Google, Red Hat, Dell et Aruba comme membres fondateurs, qui fédère désormais plusieurs dizaines d’organisations autour de quatre briques : identité, observabilité, découverte et messagerie. « On s’est dit : le monde qui nous intéresse, c’est un monde ouvert, interopérable où une entreprise peut acheter les meilleurs agents auprès du meilleur fournisseur et les faire bosser ensemble », résume Guillaume de Saint Marc. Agntcy fournit donc quatre composants essentiels : l'identité des agents avec un système de contrôle d'accès basé sur les tâches (TBAC), l'observabilité via des extensions OpenTelemetry, la découverte via un Agent Directory et le schéma OASF (Open Agent Schema Framework), et la messagerie via Slim. 

Côté identité, Agntcy propose des identités vérifiables pour agents, en tirant parti des fournisseurs IAM existants (Microsoft, Duo, Okta, Ping, identités Web3, etc.) et en introduisant un contrôle d’accès fin par outil (Tool‑Based Access Control) puis par tâche (Task‑Based Access Control), où de petits modèles évaluent la cohérence sémantique entre la requête et les privilèges sollicités. Sur l’observabilité, Cisco, Splunk et Microsoft ont étendu OpenTelemetry avec des conventions spécifiques aux agents et systèmes multi‑agents, puis ajouté un Metrics Compute Engine capable de combiner métriques déterministes (latence, erreurs, appels d’outils) et évaluations LLM‑as‑a‑Judge de la qualité des sorties. « Sans observabilité, on ne s’en sort pas », insiste Guillaume de Saint Marc, qui voit dans cette granularité un prérequis pour industrialiser les architectures multi‑agents. Pour la découverte, le composant Directory joue le rôle d’un « DNS des agents », en publiant des « cartes d’agent » décrivant capacités, identité et ancrage dans une plateforme d’identité, avec une architecture distribuée et décentralisée. Enfin, Slim, acronyme de Secure Low-latency Interactive Messaging, est un protocole de messagerie sécurisée combinant la fiabilité de gRPC avec des capacités publish-subscribe. L'architecture s'appuie sur les protocoles A2A (Agent-to-Agent) de GCP et MCP (Model Context Protocol) d’Anthropic, ce dernier adopté par Cisco l'an dernier. Une collaboration avec Google vise à promouvoir une extension officielle d'A2A capable de fonctionner en multipoints sur un bus. "L'importance de l'observabilité et de l'identité des agents est cruciale pour contrôler le travail, les requêtes et les privilèges des agents", précise Guillaume de Saint Marc, soulignant les défis d'interopérabilité, de mémoire collective et de communication sémantique entre agents. 

Vers un Internet of Cognition 

Au‑delà de l’interconnexion, Outshift pousse désormais l’idée d’un Internet of Cognition destiné à faire émerger une superintelligence distribuée, où des essaims d’agents et d’humains partagent intentions, contexte et mémoire collective plutôt que de raisonner en silos. Dans une publication récente, Vijoy Pandey, CTO d’Outshift, décrit trois piliers : des « cognition state protocols » pour partager des états latents, représentations compressées ou états sémantiques, une cognition fabric pour stocker et gouverner des graphes de contexte multi‑agents, et des cognition engines jouant le rôle à la fois d’accélérateurs cognitifs et de garde‑fous. L'objectif est de doter les systèmes multi-agents d'une mémoire collective partagée, là où aujourd'hui chaque agent dispose uniquement de sa propre mémoire. Cette infrastructure reposerait sur trois composantes : des protocoles d'état cognitif (LSTP, CSTP, SSTP) pour l'alignement sémantique, une fabrique de cognition distribuée pour le partage de contexte, et des moteurs cognitifs pour l'innovation collective. "L'idée, c'est de connecter un agent IA qui peut comprendre qu'il est dans un système multi-agents avec une fabrique réseau pour piloter, codifier et connecter les agents IA", assure Guillaume de Saint Marc. Cette évolution vise à combler les limites actuelles des systèmes multi‑agents, qui peuvent bien collaborer sur des workflows définis mais peinent à « penser ensemble », faute de mémoire commune, de désambiguïsation sémantique et de mécanismes de négociation d’objectifs à l’échelle d’une organisation.

« Notre nouveau grand challenge, c’est de travailler sur ce qu’on appelle Internet of cognition, pour faire en sorte que des agents puissent penser ensemble », explique Guillaume de Saint Marc, en insistant sur le rôle de la fabrique réseau pour relier mémoire institutionnelle, politiques d’accès et moteurs cognitifs spécialisés. Outshift ne parle plus seulement d’agents isolés mais de « distributed artificial superintelligence », où des collectifs d’agents spécialisés, coordonnés par ces nouvelles couches de protocole, deviennent capables de s’attaquer à des problèmes transverses – de la configuration de réseaux satellitaires à l’orchestration d’équipes de « knowledge workers » augmentés – avec une précision et une robustesse supérieures à celles d’un agent unique surdimensionné. Pour Cisco, l’enjeu est autant industriel que scientifique : transformer l’empilement réseau‑cloud‑sécurité‑observabilité en tissu cognitif où les agents IA peuvent, progressivement, assumer une part croissante du travail d’ingénierie et d’exploitation sans renoncer à la gouvernance et à la confiance.