Poursuivant son offensive sur l’intégration de l’IA au sein de sa plateforme d’observabilité, New Relic a annoncé plusieurs évolutions. Brian Emerson, directeur des produits chez New Relic, affirme que l'observabilité au sein des entreprises est actuellement marquée par trois tendances : le développement assisté par l'IA, l'explosion des applications que ces outils vont produire et l'imprévisibilité introduite lorsque l'IA est directement intégrée dans les charges de travail orientées clients. « Lorsque l’on commence à intégrer l'IA dans les applications, des événements non déterministes se produisent et les défaillances sont en quelque sorte silencieuses. Il est indispensable de comprendre ces modèles de comportement », souligne-t-il.

Pour cela, le fournisseur a dévoilé une fonctionnalité nommée Intelligent Workload pour automatiser la découverte et la cartographie des dépendances des applications afin de créer une « vue à 360 degrés » des performances, de l'infrastructure et de l'impact sur l'utilisateur final. Le service remonte des indicateurs de performance clés (KPI), comme les paniers abandonnés et les taux de conversion, plutôt que de simples indicateurs techniques verts ou rouges. « Une lenteur du système signifie-t-elle que la situation empire ou qu’elle est normale ? », a demandé Nic Benders, directeur de la stratégie technologique chez New Relic. « Certes, le CPU est saturé. C'est un problème d'infrastructure, mais quel est son impact sur l’activité ? C'est la principale préoccupation, et c'est de cela qu’il faut parler. »

Un agent dédié à la fiabilité des sites

Avec cette version, New Relic a également introduit un agent d'ingénierie de fiabilité des sites (SRE) qui utilise plusieurs données télémétriques, notamment des métriques, des événements, des logs, des traces et des relations entre les nœuds pour automatiser l'analyse des causes profondes et hiérarchiser les alertes destinées aux ingénieurs. L’éditeur envisage même de créer un « centre de crise digital » dans lequel des agents IA orchestrent la réponse aux incidents sur les domaines réseau, base de données et application. Selon l’observatoire des prévisions sur l’observabilité 2025 de New Relic, la majorité des entreprises savent qu’elles doivent résoudre les problèmes avant qu'ils n'aient un impact sur les performances, et que l'utilisation des capacités de surveillance de l'IA est passée de 42 % en 2024 à 54 % en 2025.

Mais les observateurs du secteur estiment qu'il faudra un certain temps avant que cette approche ne devienne réalité dans les entreprises. « Chaque entreprise est unique en termes de courbe d'adoption et de calendrier de préparation », a souligné Stephen Elliot, vice-président en charge des opérations cloud et DevOps chez IDC. « Le changement de comportement dans l’IT est l'une des exigences les moins souvent mentionnées pour l'adoption de l'IA agentique. La confiance est l'ingrédient indispensable. »

Un monitoring plus granulaire pour les agents IA

Dans les mises à jour, New Relic étend les capacités de sa suite Digital Experience Monitoring pour qu’elle prenne en charge les architectures micro-frontends (MFE). Celle-ci découpe les applications web en composant plus petits. Les ingénieurs peuvent désormais surveiller chaque composant et collecter des métriques sur les performances, les erreurs, les rendus et les méthodes de cycle de vie afin de suivre l'impact des dépendances sur l'expérience de l'utilisateur final. Ces capacités de surveillance sont distinctes de l’IA agentique pour apporter une vue extérieure et une cartographie des interactions en temps réel entre agents, leurs traces détaillées.

Pour Stephen Elliott, l’ensemble de ces évolutions confirme la tendance du secteur de trouver la valeur business de l’observabilité. « Chaque fournisseur doit communiquer la valeur ajoutée en termes technologiques, mais aussi de génération de revenus », explique-t-il. « L’un ne suffit plus », ajoute l’analyste. Il salue par ailleurs l’approche hybride de New Relic s’appuyant sur OpenTelemetry qui permet aux clients de s’en servir sans infrastructure de collecte distincte. Une orientation de plus en plus prisée par les clients. « OpenTelemetry est là pour rester, et son adoption ne cesse de croître. C’est une exigence produit à prendre de plus en plus en charge, car toujours plus d'entreprises l'intègrent à leurs stratégies d'observabilité », a fait remarquer M. Elliot.