Les Européens avec l'IA Act ne sont pas les seuls à vouloir encadrer et mesurer les risques liés à l'intelligence artificielle. Dans le cadre d'un nouvel effort visant à promouvoir la réglementation de l'IA, les membres de la Chambre des représentants des États-Unis ont formé un groupe de travail bipartisan chargé d'étudier une législation visant à répondre aux inquiétudes et aux préoccupations croissantes liées à l'adoption de l'IA. « Le groupe de travail s'efforcera de produire un rapport complet comprenant des principes directeurs, des recommandations tournées vers l'avenir et des propositions politiques bipartisanes élaborées en consultation avec les comités compétents », indique le communiqué de presse annonçant le groupe de travail. Ce dernier explorera « les garde-fous qui pourraient être appropriés pour protéger la nation contre les menaces actuelles et émergentes ».

Une stratégie technologique responsable et éthique est essentielle pour les avantages à long terme de l'IA, a souligné Charlie Dai, vice-président et analyste principal chez Forrester. « Les efforts législatifs potentiels inciteront les entreprises et les fournisseurs de technologie à rééquilibrer les priorités d'investissement dans l'IA, ce qui pourrait ralentir le rythme de l'innovation d'un point de vue commercial à court terme, mais cela favorisera considérablement les progrès de l'IA en termes de sécurité, de confidentialité, d'éthique et de durabilité, ce qui sera essentiel pour la confiance du public dans l'IA à long terme ». Selon Akshara Bassi, analyste principal chez Counterpoint Research, « la réglementation de l'IA entrera en jeu lorsqu'elle fera partie d'un processus décisionnel actif. Jusqu'à présent, nous utilisons encore une intelligence basée sur des règles pour compléter la prise de décision. Au fur et à mesure que l'IA évolue et se perfectionne, la réglementation contribuera à structurer les modèles d'IA et à délimiter clairement les frontières, notamment en ce qui concerne le partage des données, la protection de la vie privée et les droits d'auteur ».

Un manque de réglementation qui peut s'avérer contre-productif

Les États-Unis ont pris plusieurs mesures pour élaborer des réglementations visant à mettre l'IA au service de la croissance économique tout en répondant aux préoccupations liées à l'adoption de l'IA. Par exemple, les voix générées par l'IA ont été déclarées illégales par la Commission fédérale des communications au début du mois. Récemment, le gouvernement américain a annoncé la création de l'US AI Safety Institute (AISI) sous l'égide du National Institute for Standards and Technology (NIST) afin d'exploiter le potentiel de l'IA tout en atténuant ses risques. Plusieurs grandes entreprises technologiques, dont OpenAI, Meta, Google, Microsoft, Amazon, Intel et Nvidia, ont rejoint le consortium pour garantir le développement sûr de l'IA. Malgré cela, l'absence de réglementations claires et bien définies peut potentiellement avoir un impact sur la croissance de l'IA dans le pays. Les retards dans la rédaction d'un ensemble complet de lois peuvent dissuader les entreprises de déployer la technologie pour développer leurs activités.

« Rien qu'en 2023, 190 projets de loi ont été déposés au niveau des États pour réglementer l'IA, et 14 sont devenus des lois. Au niveau fédéral, la Commission fédérale du commerce (FTC) a commencé à appliquer les lois existantes avec de nouveaux pouvoirs issus de décrets et une plus grande attention de la part de la direction de la FTC. Cela pourrait avoir un effet dissuasif sur l'innovation et la stratégie des entreprises en matière d'IA », selon un récent billet de blog de Michele Goetz, analyste principale, et Alla Valente, analyste principale chez Forrester. Récemment, l'Union européenne a été la première grande puissance à introduire des lois régissant l'utilisation de l'IA. Plusieurs pays, dont le Royaume-Uni et l'Australie, travaillent à l'élaboration de réglementations et de politiques afin de pouvoir utiliser l'IA en toute confiance pour développer leur économie tout en se protégeant des risques potentiels. Le lancement du ChatGPT d'OpenAI en novembre 2022 a été un bouleversement et a conduit à une augmentation significative de l'adoption de la technologie. Dans le même temps, il a soulevé plusieurs préoccupations en matière de cybersécurité et de confidentialité des données, ce qui a incité les pays à accélérer la réglementation de l'IA.