Anthropic a dévoilé projet Glasswing, une initiative en matière de cybersécurité articulée autour de Claude Mythos (actuellement en beta) : un modèle décrit comme « la cybersécurité à l'ère de l'IA » et capable d'identifier de manière autonome et à grande échelle les vulnérabilités logicielles. Plutôt que de rendre le modèle public, Anthropic en limite l'accès à un consortium fermé regroupant plus de 40 entreprises, parmi lesquelles des poids lourds de l'industrie IT et de la sécurité (AWS, Apple, AWS, Broadcom, Cisco, Crowdstrike, Google, Microsoft, Nvidia et Palo Alto Networks), mais aussi des entreprises comme JPMorganChase et d'autres organisations comme la fondation Linux. « Mythos rend le premier domino plus clair : dès lors que l’IA de pointe est capable de détecter des bogues à grande échelle, la logique consistant à rémunérer des humains pour des tâches de détection routinières commence à s’effriter », explique Jeff Williams, fondateur de l’OWASP et directeur technique de Contrast Security. Selon Anthropic, l’objectif est d’appliquer ces capacités dans un environnement contrôlé et défensif, permettant aux organisations participantes de tester et d’améliorer la sécurité des logiciels et des infrastructures largement utilisés.
D'après le fournisseur IA, lors des premiers tests, le modèle aurait identifié des milliers de failles de sécurité à haut risque dans divers systèmes d'exploitation, navigateurs et autres logiciels largement utilisés. Certaines avaient persisté malgré des examens approfondis antérieurs, notamment une faille vieille de 27 ans dans OpenBSD, longtemps considéré comme l'un des systèmes d'exploitation les plus sécurisés et largement utilisé dans les infrastructures critiques. Comme pour de nombreuses annonces initiales concernant les capacités de l'IA, les résultats sont en grande partie autodéclarés et ne sont donc que partiellement vérifiables par des tiers, mais ils indiquent une direction claire : la détection de failles devient de plus en plus automatisée et évolutive. Ce changement de paradigme soulève des questions sur la manière dont le travail de sécurité est organisé et valorisé. Pour M. Williams, de l'OWASP, cette perturbation commence par des considérations économiques. Si les systèmes IA peuvent effectuer une détection de vulnérabilités à grande échelle, la justification de s'appuyer sur la chasse aux bugs menée par des humains - en particulier pour la détection de routine - s'érode. Un positionnement qui se traduit dans la réalité avec l'arrêt du versement de primes de plateformes de bug bounty comme Hacker One. Mais les implications vont au-delà des programmes de prime aux bugs. « Cela ne menace pas seulement les primes aux bugs », dit-il. « Cela menace l'idée même que la sécurité puisse rester une réflexion après coup consistant à trouver et corriger. L'ère du retard en matière de sécurité touche à sa fin, et c'est une bonne chose. »
Adapter la cyberdéfense basée sur l'IA
Selon M. Williams, la question n’est pas simplement de savoir combien il existe de vulnérabilités, mais comment elles sont gérées. « Mythos met une chose douloureusement en évidence », dit-il. « Ce n’est pas un problème de hiérarchisation. C’est un problème de fenêtre d’exposition. » La gestion traditionnelle des failles s’est construite autour de la hiérarchisation : classer les problèmes par gravité, exploitabilité et impact sur l’activité, puis mettre en œuvre les mesures correctives au fil du temps. Jeff Williams soutient que le facteur limitant n’est plus la qualité de la hiérarchisation effectuée par les organisations, mais la durée pendant laquelle les vulnérabilités restent exposées.
Anthony Grieco, vice-président senior et directeur de la sécurité et de la confiance chez Cisco, replace cette évolution dans un contexte opérationnel plus large. Dans un billet de blog, M. Grieco affirme que les entreprises doivent « s’adapter à l’ère de la cyberdéfense alimentée par l’IA », reflétant ainsi une évolution tant du paysage des menaces que des capacités requises pour y répondre. L'équipementier réseau fait partie des sociétés participant au projet Glasswing, s’associant à ce qu’Anthropic décrit comme un effort collaboratif visant à appliquer des capacités IA avancées à des cas d’utilisation en matière de sécurité défensive. M. Grieco souligne que les programmes de sécurité devront évoluer au rythme des capacités de l’IA, qui progressent rapidement. « Les capacités de l’IA continueront de progresser, la surface d’attaque évoluera, et les entreprises qui protègent Internet devront opérer à la vitesse des machines et à l’échelle des réseaux », déclare M. Grieco. « Une grande partie de ce que nous vivons aujourd’hui aurait été inimaginable il y a seulement quelques années. Il n’y a pas de ligne d’arrivée, seulement l’engagement de faire tout ce qui est possible pour garder une longueur d’avance sur les adversaires. » Pour les responsables de la sécurité, cette combinaison - une détection plus évolutive et la nécessité d’opérer à une vitesse accrue - remet en question les hypothèses de longue date sur la manière dont le risque est géré. Les retards, longtemps considérés comme une réalité opérationnelle inévitable, deviennent plus difficiles à justifier si les vulnérabilités peuvent être identifiées plus rapidement et de manière plus exhaustive.
Un recentrage en amont et des questions de contrôle en suspens
« L'avenir appartient aux usines logicielles capables de produire de manière fiable du code sécurisé et de fournir les preuves qui le démontrent », affirme M. Williams, évoquant un modèle dans lequel la sécurité est intégrée aux processus de développement plutôt que d'être traitée principalement après le déploiement. L'accent mis par M. Grieco sur l'adaptation aux menaces liées à l'IA va dans ce sens, soulignant la nécessité pour les organisations de faire évoluer à la fois leurs outils et leurs hypothèses quant à la rapidité avec laquelle les conditions liées à la sécurité peuvent changer. Dans le même temps, des questions subsistent quant à l’ampleur de la diffusion de ces capacités. Anthropic a choisi de limiter l’accès à Mythos Preview, reflétant la double nature des systèmes capables d’identifier les vulnérabilités logicielles à grande échelle, mais qui pourraient également accélérer leur exploitation. « Il est très peu probable qu’Anthropic soit en mesure de limiter les utilisations malveillantes de ce modèle », prévient M. Williams.
Anthropic s'est engagé à fournir 100 M$ de crédits d'utilisation de modèles au projet Glasswing, les participants devant apporter une contribution supplémentaire en termes d'utilisation pendant la phase d'accès anticipé. Par la suite, Claude Mythos Preview sera accessible aux participants au prix de 25 $ par million de jetons d'entrée et 125 $ par million de jetons de sortie, sachant que les participants pourront accéder au modèle via l'API Claude, Amazon Bedrock, Vertex AI de Google Cloud et Microsoft Foundry. L'entreprise s'est également engagée à financer des initiatives de sécurité open source, notamment par des dons à Alpha-Omega, OpenSSF et l'Apache Software Foundation, afin de soutenir les responsables de maintenance qui s'adaptent à ces changements. Les responsables de maintenance intéressés par cet accès peuvent postuler via le programme Claude for Open Source.