Anthropic n’avait pas l’intention d’introduire Mythos de cette manière. C’est une fuite de données dans son système de gestion de contenu (CMS) qui a révélé les détails de ce grand modèle de langage (LLM). Doté de capacités de raisonnement et de codage améliorées, ce modèle d’IA serait le plus performant d’Anthropic à ce jour. La fuite, identifiée pour la première fois par des chercheurs en sécurité indépendants la semaine dernière, résulte de la divulgation involontaire par des employés de l’entreprise de documents concernant le LLM, y compris un brouillon d’article de blog à ce sujet, via un référentiel de données accessible au public. Anthropic a restreint l'accès public au référentiel de données, avant d'attribuer plus tard cette fuite à une erreur de configuration de son CMS et de confirmer l'existence du modèle à Fortune, premier média à en faire état.

Le divulgateur spécialisé dans Apple, M1Astra, a également signalé la fuite, archivant une copie d'un brouillon d'article de blog d'Anthropic sur Mythos sur X avant que l'accès ne soit restreint. Dans ce draft, Anthropic adoptait un ton prudent, exprimant ses inquiétudes quant aux implications potentielles du modèle sur la cybersécurité. « Alors que nous nous préparons à lancer Claude Mythos, nous souhaitons faire preuve d’une prudence accrue et bien cerner les risques qu’il présente, au-delà même de ce que nos propres tests nous ont appris », a écrit l’entreprise, ajoutant qu’elle s’attachait tout particulièrement à évaluer les risques de cybersécurité à court terme. Le blog précise en outre qu’Anthropic souhaite d’abord déployer Mythos au sein des équipes de sécurité et qu’elle a déjà testé les capacités de cybersécurité du modèle auprès d’un « petit nombre de clients bénéficiant d’un accès anticipé ».

Un LLM encore très couteux à l'usage

Le raisonnement semble simple : si les modèles actuels sont déjà capables d’identifier, voire d’aider à exploiter, les vulnérabilités logicielles, un système plus performant comme Mythos pourrait considérablement accélérer à la fois la découverte et l’exploitation abusive de ces failles, augmentant ainsi les enjeux tant pour les défenseurs que pour les attaquants. Pareekh Jain, analyste principal chez Pareekh Consulting, affirme qu’en réduisant l’écart entre cyberattaque et cyberdéfense, Mythos pourrait avoir des effets à double tranchant pour les RSSI et les équipes de sécurité des entreprises. « D'un côté, des modèles comme Mythos pourraient transformer la sécurité en automatisant la découverte des vulnérabilités, les exercices de red teaming continus, le triage plus rapide et la recherche de menaces à grande échelle ; de l'autre, ils pourraient faciliter les cyberattaques en permettant à des agents IA d'agir de manière autonome avec un haut niveau de compétence », a souligné M. Jain. Selon lui, ce risque pour les RSSI n'est pas théorique, car les modèles de la génération précédente ont été rapidement détournés pour servir d'outils de développement de logiciels malveillants. 

Le risque est encore plus élevé avec Mythos en raison de capacités comme « l'auto-correction récursive », a écrit Vladimir Belomestnov, spécialiste technique senior chez HCLTech, dans un message publié sur LinkedIn. « Les fichiers divulgués mettent en évidence la capacité de l'IA à identifier et à corriger de manière autonome les vulnérabilités de son propre code. Même si cela se limite actuellement à une exploitation assistée, cela suggère que l'écart entre l'ingénierie logicielle humaine et celle des machines se réduit », a ajouté M. Belomestnov. Néanmoins, Anthropic semble encore loin de livrer son modèle. « Mythos est aussi un modèle volumineux et gourmand en ressources informatiques. Son exploitation est très coûteuse pour nous, et son utilisation le sera tout autant pour nos clients. Nous travaillons à rendre le modèle beaucoup plus efficace avant toute mise à disposition générale », peut-on lire dans la version préliminaire de l’article de blog. 

Un outil pertinent en cybersécurité

Ce qui semble clair, c’est que l’entreprise prévoit déjà un déploiement progressif ciblant des cas d’usage en cybersécurité. « Nous étendrons progressivement l’accès à Claude Mythos à davantage de clients utilisant l’API Claude au cours des prochaines semaines. Comme nous nous intéressons particulièrement aux utilisations en cybersécurité, c’est dans ce domaine que nous comptons proposer un programme d’accès anticipé (EAP) dans un premier temps », a encore écrit l’entreprise dans le draft de l’article. Dans une autre version de l’article, le modèle est également appelé « Capybara ». Anthropic n’a pas précisé quel serait son nom définitif. L'indécision quant au nom du modèle n'a toutefois pas empêché celui-ci de secouer les marchés la semaine dernière. Les actions des fournisseurs de solutions de cybersécurité, notamment CrowdStrike, Palo Alto Networks, Zscaler et Fortinet, ont chuté alors que les investisseurs évaluaient l’impact que pourraient avoir sur le paysage concurrentiel des modèles plus performants au sein de Claude Code Security. 

Cependant, le directeur de recherche d'Avasant, Gaurav Dewan, s'est montré plus optimiste quant à l'impact de Mythos sur les fournisseurs : « Les modèles puissants ne remplaceront pas les plateformes de cybersécurité. » M. Dewan estime plutôt que les fournisseurs intégreront de plus en plus les modèles de pointe d'Anthropic, d'OpenAI et d'autres acteurs dans leurs piles technologiques pour la détection des vulnérabilités, la gestion de la posture du code et du cloud, ainsi que l'automatisation des enquêtes et des réponses aux menaces. « On peut s'attendre à des partenariats et à des intégrations contrôlées, et non à une désintermédiation. Les fournisseurs qui disposent déjà de télémétrie, de workflows et de capacités d'application seront ceux qui en bénéficieront le plus », a estimé M. Dewan.