Si de plus en plus de développeurs se servent des agents IA de codage, son usage doit être maîtrisé et éviter de lui confier des tâches dans les environnements de production. Faute d’avoir respecter ces principes, AWS a subi deux pannes dont une a duré 13 heures en décembre 2025.
Selon le Financial Times, le coupable n’est autre que Kiro, l’IDE piloté par l’IA. Lancé en juillet dernier, ce service propose un développement régit par des spécifications avec un processus en trois étapes dans lequel un développeur définit d'abord ce que l'application doit faire, puis un ou plusieurs agents la construisent et la testent pour qu'elle corresponde à la spécification définie par l'équipe. Depuis, le fournisseur l'a étoffé lors du l'évènement Re:Invent à Las Vegas. Il est en concurrence avec Cursor, Windsurf ou Antigravity de Google.
Une erreur humaine pour AWS
Le quotidien britannique indique qu’une équipe d’ingénieurs d’AWS a accordé à Kiro l’autonomie nécessaire pour modifier un système en production. L’outil devait appliquer un correctif mineur, mais au lieu de cela, il a choisi de « supprimer et récréer l’environnement ». Cette décision a déclenché une réaction en chaîne, entraînant une interruption prolongée du service. Interrogé par Reuters, un porte-parole du fournisseur de cloud a indiqué « ce bref incident est dû à une erreur utilisateur, plus précisément à une mauvaise configuration des contrôles d'accès, et non à l'IA ». Il a ajouté que « l'interruption de service était un incident extrêmement limité, affectant un seul service dans l'une des deux régions de Chine continentale ».
Cet épisode met en lumière les problèmes de fiabilité des agents IA dans un contexte de course à l’automatisation menée par les fournisseurs. Les contrôles de sécurité, la gouvernance, la supervision sont souvent négligés sur l’IA agentique. A l’occasion du World AI Cannes Festival qui s'est déroulé les 12 et 13 février, plusieurs spécialistes ont estimé que la question de la gouvernance de l’IA agentique était le défi de 2026. « Nous devons décider des risques à prioriser tout en restant pragmatiques. Parfois le risque pris en n'adoptant pas l'IA est supérieur à celui qu'il nous fait courir », souligne Oliver Patel, responsable de la gouvernance de l'IA au sein du groupe pharmaceutique AstraZeneca.