Après avoir essuyé des critiques sur les efforts déployés pour maîtriser l'intelligence artificielle générative (genAI), jugés trop vagues et inefficaces, l'administration Biden devrait annoncer d'autres règles plus restrictives pour l'utilisation de cette technologie par les fonctionnaires fédéraux, relevant donc du gouvernement. Le décret, qui devrait être dévoilé lundi, modifierait également les normes d'immigration afin de permettre un plus grand afflux de travailleurs du secteur technologique et d'accélérer ainsi les efforts de développement des États-Unis. Mardi soir, la Maison Blanche a envoyé des invitations pour un événement intitulé « Safe, Secure, and Trustworthy Artificial Intelligence », organisé lundi par le président Joseph Biden, selon The Washington Post.

L’IA générative, qui progresse à une vitesse fulgurante et suscite l'inquiétude des experts du secteur, a incité Joe Biden à publier des « orientations » en mai dernier. La vice-présidente Kamala Harris a également rencontré les CEO de Google, de Microsoft et d'OpenAI - le créateur du populaire chatbot ChatGPT - pour discuter des problèmes potentiels de l'IA générative, notamment en matière de sécurité, de protection de la vie privée et de contrôle. Avant même le lancement du ChatGPT en novembre 2022, l'administration avait dévoilé un projet de « charte des droits de l'IA » ainsi qu'un cadre de gestion des risques liés à l'IA. Elle a également proposé une feuille de route pour la création d'une ressource nationale de recherche sur l'IA.

Un décret pour renforcer les moyens en matière de cybersécurité

Le décret devrait renforcer les défenses nationales en matière de cybersécurité en exigeant que les grands modèles de langage (LLM) - le fondement de l'IA générative - fassent l'objet d'une évaluation avant de pouvoir être utilisés par les agences gouvernementales américaines. Ces agences comprennent le ministère de la défense, le ministère de l'énergie et les agences de renseignement, selon The Washington Post. Ces règles viendront renforcer l'engagement volontaire pris par 15 entreprises de développement de l'IA de faire le nécessaire pour garantir une évaluation des systèmes d'IA générative qui soit compatible avec une utilisation responsable. « Je crains que nous n'ayons pas de très bons antécédents dans ce domaine ; l’exemple de Facebook en est la preuve », a déclaré Tom Siebel, CEO du fournisseur d'applications d'IA d'entreprise C3 AI et fondateur de Siebel Systems, à un auditoire lors de la conférence EmTech du MIT en mai dernier. « J'aimerais croire que l'autorégulation fonctionnerait, mais le pouvoir corrompt, et le pouvoir absolu corrompt totalement ».

Bien que l’IA générative offre des avantages considérables grâce à sa capacité à automatiser des tâches et à créer des réponses textuelles sophistiquées, des images, des vidéos et même des codes logiciels, la technologie est également connue pour ses dérapages - une anomalie connue sous le nom d'hallucinations. « Les hallucinations se produisent parce que les LLM, dans leur forme la plus classique, n'ont pas de représentation interne du monde », explique Jonathan Siddharth, CEO de Turing, une entreprise de Palo Alto, en Californie, qui utilise l'IA pour trouver, embaucher et intégrer des ingénieurs en logiciel à distance. « Il n'y a pas de notion de fait. Ils prédisent le mot suivant sur la base de ce qu'ils ont vu jusqu'à présent - il s'agit d'une estimation statistique ».

Un risque d’exposition de données sensibles

L’IA générative peut également exposer de manière inattendue des données sensibles ou personnellement identifiables. Au niveau le plus élémentaire, les outils peuvent rassembler et analyser des quantités massives de données provenant d'Internet, d'entreprises et même de sources gouvernementales afin d'offrir un contenu plus précis et plus approfondi aux utilisateurs. L'inconvénient est que les informations recueillies par l’IA ne sont pas nécessairement stockées en toute sécurité. Les applications et les réseaux d'IA peuvent rendre ces informations sensibles vulnérables à l'exploitation des données par des tiers. Les smartphones et les voitures auto-conduites, par exemple, suivent la localisation des utilisateurs et leurs habitudes de conduite. Si ce logiciel de suivi est censé aider la technologie à mieux comprendre les habitudes pour servir plus efficacement les utilisateurs, il recueille également des informations personnelles dans le cadre d'ensembles de données volumineuses utilisés pour entraîner les modèles d'IA.

Pour les entreprises qui développent l'IA, le décret pourrait nécessiter une révision de la façon dont elles abordent leurs pratiques, selon Adnan Masood, architecte en chef de l'IA chez UST, une société de services de transformation numérique. Les nouvelles règles peuvent également entraîner une augmentation des coûts opérationnels dans un premier temps. « Toutefois, l'alignement sur les normes nationales pourrait également rationaliser les processus d'approvisionnement fédéraux pour leurs produits et favoriser la confiance des consommateurs privés », indique Adnan Masood. « En fin de compte, si la réglementation est nécessaire pour atténuer les risques de l'IA, elle doit être délicatement équilibrée avec le maintien d'un environnement propice à l'innovation ». Il poursuit : « Si nous faisons trop pencher la balance vers une surveillance restrictive, en particulier dans le domaine de la recherche, du développement et des initiatives open source, nous risquons d'étouffer l'innovation et de céder du terrain à des juridictions plus indulgentes à l'échelle mondiale », avant d’ajouter que « la clé réside dans l'élaboration de réglementations qui protègent les intérêts publics et nationaux tout en alimentant les moteurs de la créativité et du progrès dans le secteur de l'IA ».

Une réglementation pour lutter contre les biais intégrés

Adnan Masood a déclaré que la réglementation à venir de la Maison Blanche était « attendue depuis longtemps, et qu'il s'agit d'une bonne étape [à] un moment critique de l'approche du gouvernement américain pour exploiter et contenir la technologie de l'IA ». Il a ainsi déclaré : « J'ai des réserves quant à l'extension de la portée de la réglementation aux domaines de la recherche et du développement […] La nature de la recherche sur l’IA exige un niveau d'ouverture et d'examen collectif qui peut être étouffé par une réglementation excessive. Je m'oppose en particulier à toute contrainte susceptible d'entraver les initiatives d'IA à code source ouvert, qui ont été la force motrice de la plupart des innovations dans ce domaine. Ces plateformes collaboratives permettent d'identifier et de corriger rapidement les failles des modèles d'IA, renforçant ainsi leur fiabilité et leur sécurité ».

Cette technologie est également vulnérable aux biais intégrés, tels que les applications d'embauche assistées par l'IA qui ont tendance à choisir des hommes plutôt que des femmes, ou des candidats blancs plutôt que des minorités. Et comme les outils d'IA générative parviennent de mieux en mieux à imiter le langage naturel, les images et les vidéos, il sera bientôt impossible de discerner les faux résultats des vrais ; cela incite les entreprises à mettre en place des « garde-fous » contre les pires résultats, qu'il s'agisse d'efforts accidentels ou intentionnels de la part d'acteurs malveillants. Les efforts déployés par les États-Unis pour contrôler l'IA font suite à ceux déployés par les pays européens pour s'assurer que la technologie ne génère pas de contenu contraire aux lois de l'UE, notamment la pornographie enfantine ou, dans certains pays de l'UE, la négation de l’Holocauste. L’Italie a carrément interdit la poursuite du développement de ChatGPT pour des raisons de protection de la vie privée, après que l'application de traitement du langage naturel a été victime d'une violation de données impliquant des conversations d'utilisateurs et des informations de paiement.

L’UE, pionnière en matière de réglementation

Le règlement sur l’intelligence artificielle (AI Act) de l'Union européenne est la première du genre à être adoptée par un ensemble de pays occidentaux. La législation proposée s'appuie fortement sur les règles existantes, telles que le règlement général sur la protection des données (RGPD), la loi sur les services numériques et la loi sur les marchés numériques. La loi sur l'IA a été proposée à l'origine par la Commission européenne en avril 2021. Les États et les municipalités envisagent d'imposer leurs propres restrictions à l'utilisation de robots basés sur l'IA pour trouver, sélectionner, interviewer et embaucher des candidats à l'emploi, en raison de problèmes de confidentialité et de partialité. Certains États ont déjà adopté des lois. La Maison-Blanche devrait également s'appuyer sur l'Institut national des normes et de la technologie pour renforcer les lignes directrices de l'industrie en matière de test et d'évaluation des systèmes d'IA - des dispositions qui s'appuieraient sur les engagements volontaires en matière de sûreté, de sécurité et de confiance que l'administration Biden a obtenus de 15 grandes entreprises technologiques cette année en matière d'IA.

L'initiative de Joe Biden est d'autant plus importante que l'IA générative connaît un essor continu, qui se traduit par des capacités sans précédent en matière de création de contenu, de « deepfakes » et, potentiellement, de nouvelles formes de cybermenaces, affirme Adnan Masood. « Ce paysage montre clairement que le rôle du gouvernement n'est pas seulement celui d'un régulateur, mais aussi celui d'un facilitateur et d'un consommateur de la technologie de l'IA », ajoute-t-il. « En imposant des évaluations fédérales de l'IA et en soulignant son rôle dans la cybersécurité, le gouvernement américain reconnaît la double nature de l'IA, à la fois comme un atout stratégique et comme un risque potentiel ». Adnan Masood a déclaré être un fervent défenseur d'une approche nuancée de la réglementation de l'IA, car il est essentiel de superviser le déploiement des produits d'IA pour s'assurer qu'ils respectent les normes de sécurité et d'éthique. « Par exemple, les modèles d'IA avancés utilisés dans les soins de santé ou les véhicules autonomes doivent être soumis à des tests rigoureux et à des contrôles de conformité pour protéger le bien-être du public », conclut-il.