Avec la médiatisation des LLM, le volet sécurité des modèles d’IA passe au second plan. Pour y remédier, Google vient de proposer un framework dédié sur ce sujet. Son nom est SAIF, pour secure AI framework et a pour vocation d’atténuer les risques spécifiques à l’IA comme « le data poisoning, les injections malveillantes et l’extraction d’informations confidentielles dans les données d’entraînement ».

Ce lancement intervient alors que les progrès de l'IA générative et son impact sur la cybersécurité continuent à être médiatisés. Ces systèmes posent des interrogations depuis les problèmes liés au partage d'informations commerciales sensibles avec des algorithmes d'auto-apprentissage avancés jusqu’aux acteurs malveillants qui les utilisent pour renforcer considérablement les attaques. L’OWASP a récemment publié les dix vulnérabilités les plus critiques observées dans les applications de grands modèles de langage (LLM). Parmi les exemples de vulnérabilités figurent les injections rapides, les fuites de données, un sandboxing inadapté et l'exécution de code non autorisée.

Un framework basé sur six principes de sécurité de l'IA

Le Secure AI Framework (SAIF) de Google s'appuie sur son expérience en matière de développement de modèles de cybersécurité, notamment le framework collaboratif Supply-chain Levels for Software Artifacts (SLSA) et BeyondCorp, son architecture zero trust utilisée par de nombreuses entreprises. Le SAIF est basé sur les six éléments fondamentaux suivants :

- L’extension des bases de sécurité solides à l'écosystème de l'IA, en tirant parti des protections de l'infrastructure « secure-by-default » (sécurisée par défaut).

- L’extension de la détection et de la réponse (D&R) aux menaces de façon à intégrer l'IA dans l'univers des menaces d'une organisation pour surveiller les entrées et les sorties des systèmes d'IA génératifs afin de détecter les anomalies et d'utiliser les renseignements sur les menaces et anticiper les attaques.

- L’automatisation des défenses pour suivre le rythme des menaces existantes et nouvelles afin de répondre plus largement et plus rapidement aux incidents de sécurité.

- L’harmonisation des contrôles au niveau de la plateforme pour garantir une sécurité cohérente, notamment en étendant les protections sécurisées par défaut aux plateformes d'IA comme Vertex AI et Security AI Workbench, et en intégrant des contrôles et des protections dans le cycle de vie du développement logiciel.

- L’adaptation des contrôles pour ajuster les mesures d'atténuation et créer des boucles de rétroaction plus rapides pour le déploiement de l'IA grâce à des techniques comme l'apprentissage par renforcement ou « reinforcement learning », basé sur les incidents et le feedback des utilisateurs.

- La contextualisation des risques liés aux systèmes d'IA dans les processus métiers environnants, y compris les évaluations des risques métiers de bout en bout, comme le lignage des données, la validation et la surveillance du comportement opérationnel pour certains types d'applications.

S’adosser à des partenaires et à d’autres référentiels

Google a pris et prendra plusieurs mesures pour améliorer son framework. Notamment, pour inciter l'industrie à soutenir SAIF, l’entreprise a annoncé plusieurs partenariats et contributeurs clés dans les mois à venir. Il poursuit par ailleurs son engagement continu de l'industrie pour développer le NIST AI Risk Management Framework et l’ISO/IEC 42001 AI Management System Standard (la première norme de certification de l'IA de l'industrie). Google travaillera aussi directement avec les entreprises, y compris les clients et les gouvernements, pour les aider à comprendre comment évaluer les risques de sécurité de l'IA et les atténuer. « Cela comprend l'organisation d'ateliers avec des experts et la publication des meilleures pratiques pour déployer des systèmes d'IA en toute sécurité », a déclaré Google.

De plus, la firme partagera les informations fournies par des équipes de renseignements sur les menaces, comme Mandiant et TAG, sur les cyberactivités impliquant des systèmes d'IA, tout en développant ses programmes de chasse aux bogues (y compris son programme de récompense Vulnerability Rewards Program) « afin de récompenser et d'encourager la recherche sur la sûreté et la sécurité de l'IA », a ajouté l'entreprise. Enfin, Google continuera à proposer des offres d'IA sécurisées avec des partenaires comme GitLab et Cohesity, et à développer de nouvelles capacités pour aider les clients à construire des systèmes sécurisés.