L'intelligence artificielle est certes bien pratique pour automatiser des tâches ou prédire des comportements mais peut aussi être source de problèmes. En particulier de sécurité comme l'ont montré des chercheurs de l'université de Stanford. Ils ont trouvé en effet trouvé que les codes conçus par des développeurs avec l'aide d'assistants IA tel que Copilot de GitHub sont plus exposés à des failles que les autres qui n'en n'utilisent pas. « Nous avons constaté que les participants ayant utilisé un assistant IA produisaient souvent plus de vulnérabilités de sécurité que ceux sans accès, avec des résultats particulièrement significatifs pour les chaînes de chiffrement et les injections SQL », peut-on lire dans une étude. « Étonnamment, nous ont également constaté que les participants ayant eu recours à un assistant IA étaient plus susceptibles de croire qu'ils avaient écrit un code sécurisé que les autres ».

Dans le cadre de leur travail, les chercheurs se sont particulièrement intéressés à Codex, un générateur de code développé par OpenAI et que l'on retrouve dans Copilot de GitHub. 47 développeurs de différents niveaux ont été impliqués (étudiants non diplômés, diplômés et professionnels expérimentés) principalement aux Etats-Unis, à utiliser Codex pour résoudre les problèmes liés à la sécurité dans les langages de programmation, y compris Python, JavaScript et C. Les participants à cette étude ont été confrontés à six questions relatives aux domaines de la sécurité et des langages de programmation. Par exemple comment écrire deux fonctions en Python où l'on chiffre et l'autre déchiffre une chaîne donnée à l'aide d'un clé symétrique, ou une fonction en C qui prend un entier signé et renvoie une représentation sous forme de chaîne de cet entier.

Un corpus de participants limité

« Dans l'ensemble, nous constatons que le fait de recourir à l'assistant IA entraîne souvent davantage de failles de sécurité dans plusieurs questions », indique l'étude. « Nos résultats suggèrent que plusieurs participants ont développé des modèles mentaux de l'assistant au fil du temps, et ceux qui étaient plus susceptibles d'ajuster les paramètres de manière proactive et les invites de reformulation étaient plus susceptibles de fournir un code correct et sécurisé ».

De l'aveu même des chercheurs, le corpus de participants constitue toutefois une limite, il convient donc de prendre les résultats avec des pincettes. Ils soulignent que la plupart des personnes n'étaient pas aguerris aux questions de sécurité. Les scientifiques n'enterrent pas non plus l'intérêt et les bénéfices des assistants de codage à base d'IA, notamment pour les tâches qui ne présentent pas de risque élevé, comme l'exploration de code.