La Chine et les États-Unis ont accepté de collaborer avec au moins 25 autres pays pour atténuer les risques liés à la progression de l'IA. Les deux pays, ainsi que plusieurs autres, dont l'Allemagne, la France, l'Inde ainsi que l’UE ont signé un accord, baptisé « Bletchley declaration », lors du sommet britannique sur la sécurité de l'IA, afin d'établir une ligne de conduite commune pour superviser l'évolution de l'IA et veiller à ce que la technologie progresse en toute sécurité. L'accord porte le nom de Bletchley Park, situé à Milton Keynes en Angleterre, site qui a abrité l'équipe dirigée par Alan Turing pour déchiffrer les codes de la machine Enigma pendant la seconde guerre mondiale.

Le sommet au cours duquel l'accord a été signé s'est déroulé en présence de plusieurs dirigeants politiques et des CEO d’entreprises technologiques, dont Elon Musk et le CEO d'OpenAI, Sam Altman. La déclaration de Bletchley invite les pays membres signataires à adopter deux grandes approches pour contrôler les risques de guerre nucléaire, chimique ou biologique découlant de l’IA. « Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d'IA les plus poussés peuvent amplifier des risques tels que la désinformation. Les capacités les plus importantes de ces modèles d'IA peuvent entraîner des dommages graves, voire catastrophiques, délibérés ou involontaires », souligne l'accord.

Deux approches pour endiguer les risques liés à l’IA

La première approche consiste à identifier les risques de sécurité liés à l'IA qui suscitent des préoccupations communes, puis à les comprendre avec des données scientifiques et factuelles. Une fois cette compréhension acquise, les pays membres évalueront l'évolution des capacités de l'IA et mesurer son impact sur la société dans son ensemble, selon l'accord.

La deuxième approche consiste à élaborer des politiques fondées sur les risques dans les pays membres afin de garantir la sécurité. A noter que ces politiques peuvent varier en fonction des circonstances nationales et des cadres juridiques applicables. « Cette deuxième approche comprend, outre une transparence accrue de la part des acteurs privés qui développent des capacités d'IA de pointe, des mesures d'évaluation appropriées, des outils pour tester la sécurité, ainsi que le développement de capacités et de recherches scientifiques pertinentes dans le secteur public », peut-on lire dans l'accord.

Les États-Unis ont pris de l’avance en matière de régulation de l’IA

Au début du mois de mai, des centaines de dirigeants de l'industrie technologique, d'universitaires et d'autres personnalités ont signé une lettre ouverte avertissant que l'évolution de l'IA pourrait conduire à un phénomène d'extinction et déclarant que le contrôle de cette technologie devrait être une priorité mondiale absolue.

Cette semaine, OpenAI, à l’origine de ChatGPT, a déclaré qu'il préparait une équipe pour empêcher ce que l'entreprise appelle les modèles d'IA d'avant-garde de déclencher une guerre nucléaire et d'autres menaces. L’administration du président américain Joe Biden a également publié cette semaine un décret attendu depuis longtemps, qui définit des règles claires et des mesures de contrôle pour veiller à ce que l’IA soit maîtrisée, tout en lui offrant la possibilité de se développer.