L'IA facilite de plus en plus les attaques informatiques et c'est dans ce contexte qu'une plateforme de test de cyberattaques open source appelée CyberStrikeAI voit le jour. Celle-ci regroupe des outils et des fonctions d'automatisation des attaques de bout en bout dans un seul moteur d'orchestration IA natif. Malgré un avertissement présent dans son dépôt GitHub indiquant qu'il s'agit d'une plateforme à des fins d'enseignement et de formation, de sérieux doutes subsistent sur la motivation de son promoteur. Selon les recherches de l’entreprise de cybersécurité Team Cymru, le développeur à l'origine de CyberStrikeAI aurait en effet « certains liens » avec le gouvernement chinois et serait directement impliqué dans des opérations malveillantes. Les activités GitHub de CyberStrikeAI suggèrent que son développeur, connu sous le nom d'Ed1s0nZ, interagit avec des entreprises privées chinoises ayant des liens connus avec le ministère chinois de la Sécurité d'État (MSS). Entre le 20 et le 26 janvier, les chercheurs ont observé 21 adresses IP uniques exécutant CyberStrikeAI, avec des serveurs principalement hébergés en Chine, à Singapour et à Hong Kong. Ce nombre indique une « forte augmentation de l'utilisation opérationnelle » depuis la création du référentiel GitHub en novembre 2025, a noté M. Thomas de Team Cymru.
CyberStrikeAI est livré avec plus de 100 outils sélectionnés couvrant « l'ensemble de la chaîne de destruction ». « Il comprend un moteur d'orchestration « intelligent », des tests basés sur des rôles avec certains prédéfinis, un système doté de ce qu'il appelle des compétences de test spécialisées et des capacités de gestion « complète » du cycle de vie », comme l’ont détaillé les chercheurs. Avec ce type de kit facile à utiliser, de plus en plus d'acteurs malveillants de tous types, y compris des novices, peuvent lancer des attaques en quelques clics seulement. « L'adoption de CyberStrikeAI devrait s'accélérer, ce qui représente une évolution préoccupante dans la prolifération des outils de sécurité offensive augmentés par l'IA », a averti Will Thomas, conseiller principal en renseignements sur les menaces chez Team Cymru.
Une automatisation de bout en bout
Sur sa page GitHub, le kit se présente comme un « environnement de test vérifiable, traçable et collaboratif pour les équipes de sécurité ». Il intègre le protocole MCP (Model Context Protocol) natif, ce qui lui permet de se connecter facilement à des données, des outils et des systèmes externes sans nécessiter d'intégrations distinctes. Il affirme prendre en charge l'automatisation de bout en bout, « des commandes conversationnelles à la découverte des vulnérabilités, en passant par l'analyse des chaînes d'attaque, la récupération des connaissances et la visualisation des résultats. »
La page GitHub met en avant les points forts du produit :
- Plus de 100 mode d'emploi d'outils préconstruits et un système d'extension basé sur YAML ;
- Un graph de chaîne d'attaque, la notation des risques et « un replay étape par étape » ;
- Des interfaces utilisateur web protégées par mot de passe et des journaux d'audit ;
- Une base de connaissances avec recherche vectorielle, récupération hybride et archives consultables ;
- La gestion des vulnérabilités avec opérations de création, lecture, mise à jour et suppression (create, read, update, delete, CRUD), ainsi que le suivi de la gravité, l’état du workflow et des statistiques ;
- La gestion des tâches par lots afin d'organiser les files d'attente de tâches et d'ajouter et d'exécuter plusieurs tâches de manière séquentielle.
De plus, des chatbots intégrés, baptisés DingTalk et Lark, donnent la capacité aux utilisateurs de communiquer avec CyberStrikeAI depuis des terminaux mobiles.
Les outils de CyberStrikeAI prennent en charge une chaîne d'attaque complète et comprennent l'analyse du réseau et des vulnérabilités, les tests web et d'applications, le craquage de mots de passe, les cadres d'exploitation et de post-exploitation, la sécurité des conteneurs, du cloud et des API, l'énumération des sous-domaines (utilisée pour découvrir les vulnérabilités), les utilitaires capture the flag (CTF) et l'analyse forensique et binaire.
Un tableau de bord aide les utilisateurs à comprendre rapidement les fonctionnalités principales et l'état actuel. Les débutants peuvent effectuer un déploiement rapide à l'aide d'une seule commande, tandis que les plus avancés peuvent se lancer dans des tâches plus complexes. Celles-ci comprennent des tests prédéfinis basés sur les rôles (tests d'intrusion, CTF, analyse des applications web), des prompts personnalisés et des restrictions d'outils, des systèmes de compétences (avec plus de 20 compétences, dont l'injection SQL et la sécurité des API) qui peuvent être appelés à la demande par des agents IA, des orchestrations et des extensions d'outils, ainsi que des informations sur la chaîne d'attaque. « Rendre ce type d'outil accessible en open source, compte tenu de sa sophistication et de sa capacité à causer de réels dommages, est irresponsable », s’est inquiété David Shipley de Beauceron Security. « Il change complètement la donne par rapport aux outils passés qui peuvent être utilisés de manière responsable par les hackers éthiques et les chercheurs en sécurité. »
La sécurité offensive dynamisée à l'IA progresse
« Alors que les adversaires adoptent de plus en plus les moteurs d'orchestration IA natifs, nous nous attendons à une augmentation des attaques automatisées et basées sur l'IA visant les périphériques vulnérables, notamment les pare-feux et les équipements VPN », a-t-il mis en garde. Dans un avenir proche, les défenseurs doivent se préparer à un environnement où des outils comme celui-ci, et d'autres « projets d'escalade des privilèges assistés par l'IA », réduisent les obstacles à l'exploitation de réseaux complexes, a-t-il poursuivi.
« Nous avons véritablement ouvert la boîte de Pandore et de nombreuses entreprises vont en pâtir. Elles ne pourront pas suivre le rythme », a averti M. Shipley, de Beauceron. C'est comme passer « des mousquets aux AK-47 », a-t-il fait remarquer, et les réactions impulsives des législateurs nuiront même aux efforts de recherche de bonne foi. « Nous allons avoir beaucoup de problèmes en 2026, et bien d’autres outils vont faire leur apparition. »

Commentaire