Si l’UE a pour habitude de réglementer (cf la récente approbation de l’IA Act), les Etats-Unis préfèrent laisser le marché se réguler. Et c’est bien ce qui prévaut dans la création de l’AI Safety Institute Consortium (AISIC). Cette structure, soutenue par le gouvernement américain, sera chargé de mettre en place des garde-fous pour l'utilisation et le développement de l'IA. Annoncé en fin de semaine dernière par le Département du Commerce, le consortium fait partie du NIST (National Institute of Standards and Technology et comprend plus de 200 entreprises et organismes. Parmi ses membres figurent Amazon.com, l'université Carnegie Mellon, l'université Duke, la Free Software Foundation et Visa, de même que plusieurs grands développeurs d'outils d'IA, dont Apple, Google, Microsoft et OpenAI.

Le consortium « veillera à ce que l'Amérique soit en tête de peloton » dans la définition des normes de sécurité de l'IA tout en encourageant l'innovation, a déclaré la secrétaire américaine au commerce, Gina Raimondo, dans un communiqué. « Ensemble, nous pouvons relever ces défis pour développer les mesures et les normes dont nous avons besoin pour maintenir l'avantage concurrentiel de l'Amérique et développer l'IA de manière responsable », a-t-elle ajouté.

Une nécessaire réglementation sur l’IA

La semaine dernière, outre l'annonce de ce consortium, l'administration Biden a nommé Elizabeth Kelly, ancienne conseillère du président pour la politique économique, au poste de directrice l’US Artificial Intelligence Safety Institute (USAISI), une organisation au sein du NIST qui hébergera l'AISIC. On ne sait pas encore si les travaux de la coalition déboucheront sur des réglementations ou sur de prochaines lois. Même si le 30 octobre 2023, le président Joe Biden a publié un décret sur la sécurité de l'IA, le calendrier des travaux du consortium n'est pas encore fixé.

De plus, si Joe Biden perd les élections présidentielles dans le courant de l'année, cette dynamique en faveur d'une réglementation de l'IA pourrait s'essouffler. Cependant, le récent décret de Joe Biden suggère qu'une certaine réglementation est nécessaire. « L'exploitation de l'IA pour le bien et la réalisation de ses innombrables avantages exigent que l'on atténue les risques considérables qu'elle comporte », indique le décret. « Cette entreprise appelle à un effort de toute la société, qui inclut le gouvernement, le secteur privé, le monde universitaire et la société civile ».

Plusieurs textes en préparation

Entre autres choses, la volonté de M. Biden est d’exiger des développeurs de systèmes d'IA qu'ils partagent les résultats de leurs tests de sécurité avec le gouvernement américain ; d’élaborer des normes, des outils et des tests pour garantir que les systèmes d'IA sont sûrs, sécurisés et dignes de confiance ; de protéger les résidents américains contre les fraudes et les tromperies liées à l'IA ; de mettre en place un programme de cybersécurité pour développer des outils d'IA capables de trouver et de corriger les vulnérabilités des logiciels critiques.

L’AI Safety Institute Consortium sollicite les contributions de ses membres dans plusieurs de ces domaines, notamment autour du développement d'outils de test et de normes industrielles pour un déploiement sûr de l'IA. Dans l’intervalle, au cours de la session 2023-24, les législateurs ont présenté des dizaines de projets de loi liés à l'IA au Congrès américain. L'Artificial Intelligence Bug Bounty Act pourrait obliger le Département de la Défense des États-Unis à créer un programme de primes aux bugs pour les outils d'IA qu'il utilise. Le Block Nuclear Launch by Autonomous Artificial Intelligence Act pourrait interdire l'utilisation de fonds fédéraux pour des systèmes d'armes autonomes capables de lancer des armes nucléaires sans intervention humaine significative. Mais, en cette année électorale aux États-Unis, il est difficile de faire passer des projets de loi au Congrès.

La lutte entre les pro et anti régulation resurgit

Plusieurs personnalités, dont Elon Musk et Stephen Hawking, ont fait part de leurs inquiétudes au sujet de l'IA, notamment la menace lointaine que l'IA finisse par prendre le contrôle du monde. Dans les préoccupations à plus court terme, certains s’inquiètent de l'utilisation de l'IA pour créer des armes biologiques, des cyberattaques ou des campagnes de désinformation. Mais d'autres, comme l'investisseur en capital-risque Marc Andreessen, estiment qu’un grand nombre d’inquiétudes à propos de l'IA sont exagérées. Dans un long billet de blog daté du 6 juin 2023, il affirme que l'IA sauvera le monde. Il milite en faveur de la suppression de « toute barrière réglementaire » pour le développement d’une IA open source, en mettant en avant les avantages que pourront en tirer les étudiants qui apprennent à construire des systèmes d'IA.

À l’inverse, il fustige les opportunistes qui cherchent à tirer profit de la réglementation en créant une « panique morale » sur les dangers de l'IA afin d'imposer de nouvelles restrictions, réglementations et lois. Les dirigeants des entreprises d'IA existantes « peuvent gagner plus d'argent si des barrières réglementaires sont érigées pour former un cartel de fournisseurs d'IA adoubés par le gouvernement et protégés de la concurrence des nouvelles startups et des logiciels libres », a ainsi déclaré Marc Andreessen.