Un dernier scénario malveillant a été identifié par des experts en sécurité de Varonis. Sa particularité : compromettre l'assistant IA de Microsoft, Copilot, à des fins d'exfiltration de données. Dénommée Reprompt, cette attaque se compose d'une chaîne en trois étapes contournant complètement les contrôles de sécurité, après un premier prompt LLM donnant aux pirates un accès invisible, indétectable et illimité. « Les assistants IA sont devenus des compagnons de confiance avec lesquels nous partageons des informations sensibles, auxquels nous demandons des conseils, et ce sans hésitation », a indiqué Dolev Taler, chercheur en sécurité chez Varonis Threat Labs, dans un billet de blog. « Mais la confiance peut être facilement exploitée, et un assistant IA peut se transformer en une arme d'exfiltration de données en un clic. » Il est important de noter qu'à l'heure actuelle, Reprompt n'a été découvert que dans Copilot Personal, et non 365 Copilot. Cela ne veut pas dire pour autant qu'il ne pourrait pas être utilisé contre des entreprises, en fonction de leurs politiques et règles d'usage et de la sensibilisation des utilisateurs. L'éditeur a déjà publié un correctif après avoir été informé de la faille.
Reprompt utilise trois techniques pour créer une chaîne d'exfiltration de données :une injection de prompt, une double requête et une chaine de prompt. L'injection de type Parameter 2 Prompt (P2P) consiste à intégrer une invite directement dans une URL, exploitant la fonctionnalité par défaut du paramètre « q » des URL de Copilot, qui vise à rationaliser et à améliorer l'expérience utilisateur. L'URL peut inclure des questions ou des instructions spécifiques qui remplissent automatiquement le champ de saisie lorsque les pages se chargent. En utilisant cette faille, les attaquants ont ensuite recours à un double prompt, ce qui leur permet de contourner les mesures de sécurité. Copilot en ne vérifiant la présence de contenu malveillant dans la variable Q que pour la première invite, et non pour les requêtes suivantes. Par exemple, les chercheurs ont demandé à Copilot de récupérer une URL contenant la phrase secrète « Helloworld1234! », en répétant la requête deux fois. Copilot a supprimé la phrase secrète de la première URL, mais la deuxième tentative « a fonctionné à merveille », a noté M. Taler. À partir de là, les pirates ont pu lancer une chaîne de prompts, dans laquelle le serveur du pirate émet des instructions de suivi pour former une conversation continue. Cela incite Copilot à exfiltrer les historiques de conversation et les données sensibles. Les pirates peuvent alors fournir toute une série de prompts comme « Résumez tous les fichiers auxquels l'utilisateur a accédé aujourd'hui », « Où habite l'utilisateur ? » ou encore « Quand prévoit-il de partir en vacances ? ».
Une méthode de vol furtive et évolutive
« Cette méthode rend le vol de données furtif et évolutif et il n'y a aucune limite aux données que les attaquants peuvent exfiltrer, ni à la quantité qu'ils peuvent extraire », a fait remarquer M. Taler. « Copilot divulgue les données petit à petit, si bien que la menace peut utiliser chaque réponse pour générer la prochaine instruction malveillante. » Le danger réside dans le fait que Reprompt ne nécessite aucun plugin, aucune activation de connecteur ou interaction de l'utilisateur avec Copilot, au-delà du simple clic initial sur un lien Microsoft Copilot légitime dans un message de phishing. L'attaquant peut rester dans Copilot aussi longtemps qu'il le souhaite, même après que l'utilisateur ait fermé sa fenêtre de discussion. Toutes les commandes sont transmises via le serveur après le prompt initial, il est donc presque impossible de déterminer ce qui est extrait en inspectant uniquement cette demande. « Les véritables instructions sont cachées dans les prompts de suivi du serveur », a expliqué M. Taler, « et non dans le prompt soumis par l’utilisateur ».
« Comme dans les pratiques de sécurité habituelles, les salariés doivent toujours considérer les URL et les entrées externes comme non fiables », rappellent les experts qui conseillent d’être prudent avec les liens, à l'affût de tout comportement inhabituel et de prendre toujours le temps d'examiner les invites préremplies. « Cette attaque, comme beaucoup d'autres, trouve son origine dans un courriel ou un SMS de phishing. Toutes les bonnes pratiques contre le phishing s'appliquent donc, notamment celle de ne pas cliquer sur les liens suspects », a rappelé Henrique Teixeira, vice-président directeur de la stratégie chez Saviynt. Celui-ci recommande de mettre en place une authentification résistante au phishing, non seulement lors de la première utilisation d'un chatbot, mais tout au long de la session. Cela suppose que les développeurs mettent en place des contrôles dès la création des applications et l'intégration des assistants IA, plutôt que d'ajouter des contrôles ultérieurement. « Les utilisateurs finaux doivent éviter d'utiliser des chatbots non authentifiés et éviter les comportements à risque, par exemple céder à l'urgence (être encouragé à conclure rapidement une transaction), répondre à des expéditeurs inconnus ou potentiellement malveillants, ou partager trop d'informations personnelles », a-t-il ajouté. « Enfin, et c'est très important, il ne faut pas blâmer la victime dans ces cas-là », a insisté M. Teixeira. Les propriétaires d'applications et les fournisseurs de services utilisant l'IA doivent créer des applications qui ne permettent pas l'envoi de messages sans authentification et autorisation, ou avec des commandes malveillantes intégrées dans les URL. « Les fournisseurs de services peuvent inclure davantage de contrôles d'hygiène et de sécurité de base, comme l'authentification continue et adaptative, afin de rendre les applications plus sûres pour les employés et les clients », a-t-il suggéré.
Des usages LLM risqués en entreprises
Le chercheur en sécurité de Varonis Threat Labs estime par ailleurs que la conception doit tenir compte des risques liés aux personnels des entreprises. « On doit faire en sorte que les assistants IA fonctionnent dans un contexte et avec des accès fiables. Il faut appliquer le principe du moindre privilège, l'audit et la détection des anomalies en conséquence. » Pour d'autres experts, Reprompt vient rappeler que les entreprises ne doivent pas déployer de technologies sans se préoccuper de la sécurité. « Voir le déroulement de cette histoire, c'est comme regarder Bip Bip et Coyote », a déclaré David Shipley de Beauceron Security. « On sait ce qui va se passer : le coyote va faire confiance à un produit Acme défectueux et l'utiliser de manière vraiment stupide », s’est-il amusé. Dans le cas qui nous concerne, les technologies basées sur les LLM de ce « produit » sont autorisées à effectuer n'importe quelle action sans restriction. Ce qui est effrayant, c'est qu'il n'y a aucun moyen de les sécuriser, car les LLM sont ce que M. Shipley qualifie « d’idiots à grande vitesse ». « Ils ne peuvent pas faire la distinction entre le contenu et les instructions, et font aveuglément ce qu'on leur dit », a-t-il déclaré. « Les LLM devraient être limités aux chats dans un navigateur », a-t-il estimé. « Les entreprises prennent de très gros risques en leur donnant accès à autre chose, en particulier s'ils doivent interagir avec du contenu pouvant être envoyé par courriel, par message ou via un site web. Utiliser des techniques telles que l'application du principe du moindre privilège et du zero trust pour tenter de contourner l'insécurité fondamentale des LLM « semble brillant jusqu'à ce que cela se retourne contre elles », a ajouté M. Shipley. « Tout cela ferait sourire si cela n’exposait pas les données des entreprises. »