L’automatisation des systèmes d’information franchit une nouvelle étape avec l’émergence des agents IA autonomes. Capables d’enchaîner des actions sans intervention humaine — interroger des bases de données, appeler des API ou exécuter du code — ces outils s’intègrent rapidement dans les environnements métiers. Mais cette évolution s’accompagne d’un changement profond du modèle de risque. Dans de nombreuses entreprises, la question centrale n’est plus uniquement l’usage de l’intelligence artificielle, mais les conditions d’accès aux données et aux ressources critiques. Comme le souligne Gregory Cardiet VP Sales Engineer Europe chez CrowdStrike , « la vraie question, c’est le contrôle de la donnée qui va être soumis à cet outil ». Pour fonctionner, ces agents reposent sur des identités de service souvent étendues, leur permettant d’interagir avec plusieurs composants du SI. Ce fonctionnement entre en tension directe avec le principe de moindre privilège. Bastien Bobe, Security Field CTO chez Commvault, le résume clairement : « Le problème de fond, ce sont les droits : ils ont accès à beaucoup de choses, ils ont accès à beaucoup de données. » En théorie, ces accès devraient être strictement limités. En pratique, ils sont fréquemment surdimensionnés, notamment dans des phases de déploiement rapides ou de preuve de concept.
Ce décalage entre conception et exploitation s’explique aussi par un manque de maturité. « Quand ça marche, on n’y touche plus », observe Bastien Bobe. Résultat : des agents déployés en production sans mécanismes complets de contrôle, de segmentation ou de journalisation.

Parallèlement, les attaquants tirent eux aussi parti de l’intelligence artificielle pour accélérer leurs opérations. « Le temps nécessaire pour exploiter une faille s’est considérablement réduit grâce à l’assistance de l’IA », indique Gregory Cardiet. Des vulnérabilités peuvent désormais être exploitées en quelques jours, voire quelques heures après leur publication. L’expert précise que « l’exploitation de vulnérabilités peut aujourd’hui se faire de manière quasi industrielle ».
Cette évolution s’inscrit dans une tendance plus large : la montée des attaques basées sur les identités. « 82 % des attaques sont aujourd’hui dites malware-free et reposent sur l’utilisation d’identités valides », rappelle Gregory Cardiet. Dans ce contexte, un agent IA compromis — ou simplement mal configuré — devient un vecteur d’attaque particulièrement discret, capable d’agir avec des privilèges légitimes.

Les risques ne sont pas uniquement liés à des attaques externes. Des erreurs de configuration ou d’usage peuvent également produire des effets critiques. Bastien Bobe souligne que des incidents récents ont été causés par des agents disposant de droits excessifs, capables d’altérer ou de supprimer des données en production. « Si c’est bien fait, si c’est bien géré […], ça peut simplifier le travail », précise-t-il, mais ces conditions restent encore peu répandues.
La gestion des données utilisées par ces agents constitue un autre point de vigilance. « Le seul moyen que l’IA ne connaisse pas une donnée sensible, c’est de ne pas lui donner », insiste Bastien Bobe. Cela implique des pratiques systématiques d’anonymisation, de pseudonymisation ou de filtrage avant ingestion dans les modèles.
Face à ces nouveaux usages, Gregory Cardiet indique : « La visibilité complète de l’environnement devient un enjeu majeur pour comprendre les comportements anormaux. » Les agents IA peuvent, en théorie, être entièrement tracés et audités. « Un agent IA peut être journalisé, tracé et segmenté dans un environnement qui lui est propre », ajoute Bastien Bobe. Mais là encore, ces capacités doivent être anticipées dès la conception.
L’intégration des agents IA dans les systèmes d’information ne constitue pas uniquement une évolution technologique. Elle modifie en profondeur les modèles de contrôle et de sécurité. Plus autonomes, plus rapides et interconnectés, ces systèmes introduisent une surface d’attaque moins visible, mais potentiellement plus étendue. Pour les DSI et RSSI, l’enjeu est désormais de maîtriser ces nouveaux acteurs du SI au même titre que les utilisateurs humains ou les applications critiques.