Ce week-end, 22 organismes judiciaires et agences de renseignement de 18 pays (dont la France) ont signé un accord international sur la sécurité de l'IA. Il vise à rendre les dernières versions de la technologie « sûres dès leur conception », intervient quelques mois après la validation par le Parlement européen de l' IA Act, en juin. Ce texte toujours en discussion interdit certaines technologies d'IA, notamment la surveillance biométrique et la prévision policière pour la prévention de la criminalité, et classe dans la catégorie des systèmes à haut risque les systèmes d'IA pouvant avoir un impact significatif sur la santé, la sécurité, les droits ou les élections. « Les systèmes d'IA peuvent apporter de nombreux avantages à la société. Mais, pour que les possibilités offertes par l'IA se concrétisent pleinement, celle-ci doit être développée, déployée et exploitée de manière sûre et responsable », stipule l’accord. Celui-ci estime que, compte tenu du rythme rapide du développement de l'IA, la question de la sécurité ne doit pas être posée après coup, mais qu’il faut la considérer comme une exigence fondamentale du cycle de vie de ces systèmes. « Ils sont exposés à de nouvelles vulnérabilités de sécurité qu’il faut prendre en compte au même titre que les menaces classiques de cybersécurité », indique le rapport.

« Quand le rythme de développement est élevé, comme c'est le cas de l'IA, la sécurité peut souvent passer au second plan. Avec une différence de sécurité spécifique à l'IA : l'existence d'un phénomène appelé « machine learning antagoniste ». Qualifié de critique par le rapport, le ML antagoniste est défini comme l'exploitation stratégique des vulnérabilités fondamentales, inhérentes aux composants du ML. En manipulant ces éléments, les adversaires peuvent potentiellement perturber ou tromper les systèmes d'IA, avec pour conséquence la génération de résultats erronés ou la compromission d’une fonctionnalité. Outre le projet de réglement européen sur l'IA, aux États-Unis, le président Joe Biden a signé en octobre un décret visant à réglementer le développement de l'IA, exigeant des développeurs de modèles d'IA puissants qu'ils partagent avec le gouvernement les résultats en matière de sécurité et les informations critiques.

La Chine, exclue de l’accord

Alors qu'elle est l'un des moteurs du développement de l'IA et qu'elle fait l'objet de plusieurs sanctions commerciales de la part des États-Unis en vue de limiter son accès au silicium de haute puissance, nécessaire au développement de l'IA, la Chine est absente de l'accord. Dans un discours prononcé dimanche lors d'un événement organisé par la chambre de commerce de Taïwan, Mark Liu, président de TSMC, a déclaré que la décision des États-Unis d'exclure la Chine entraînerait un ralentissement mondial de l'innovation et une fragmentation de la mondialisation.

L'IA reste un champ de mines juridique

Bien que non contraignant, l’accord propose principalement des recommandations générales et n'aborde pas les questions complexes concernant les applications appropriées de l'IA ou les méthodes de collecte de données pour les LLM. Il n'aborde pas les litiges civils en cours aux États-Unis sur la manière dont les systèmes ingèrent des données pour développer leurs grands modèles de langage, et sur la question de savoir si ces pratiques sont conformes à la législation sur les droits d'auteur.

Aux États-Unis, plusieurs auteurs ont porté plainte contre OpenAI et Microsoft pour violation des droits d'auteur et de la propriété intellectuelle, estimant que leurs œuvres créatives ont été utilisées sans leur accord dans la formation de ChatGPT d'OpenAI. La plainte met en évidence les préoccupations croissantes concernant l'impact de l'IA sur les industries créatives et journalistiques traditionnelles. Selon K&L Gates, OpenAI et d'autres défendeurs dans ces affaires font valoir le défaut de compétence et utilisent la doctrine de l'usage loyal pour se défendre. Si l’on ajoute à cela le scepticisme des tribunaux dans les premières affaires, on peut dire que l’avenir des litiges en matière d'IA est « incertain ».