Le projet de réglementation de l’Union européenne sur l’intelligence artificielle n’est pas du goût de tout le monde. Rendu public en avril 2021 par la Commission européenne, le document vise à harmoniser les règles en matière d’IA. Cependant, le projet pourrait impacter plus d’une entreprise et plus particulièrement les créateurs de ces modèles d’IA, à savoir les développeurs open source. Le think tank américain Brookings qui a travaillé sur le sujet, soulève ainsi ce point. « Bien qu'elle vise à permettre une utilisation plus sûre de ces outils, cette proposition créerait une responsabilité juridique pour les modèles GPAI (general-purpose AI / IA à usage général) open source, ce qui nuirait à leur développement. Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises IT et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public ».

Dans son projet de règlement, la Commission européenne souhaite en effet que les développeurs de ces systèmes d’IA répondent à certaines exigences en matière de gestion des risques, de gouvernance des données, de documentation technique, d'instructions de transparence, ainsi que de normes de précision et de cybersécurité. Autre point soulevé par le think tank : la définition de l’IA et de ces modèles dits à usage général qui reste plutôt vague. Ainsi, ce manque de précisions pourrait se reporter sur l'encadrement de cette technologie, qui ne tiendrait compte que d’une partie seulement des utilisateurs concernés. Si l'on s'attache à donner une définition précise, il convient de la détailler : les modèles GPAI consistent en l’entraînement de modèles d’apprentissage sur de grands ensemble de données, en utilisant des puissances de calcul importantes et destinées à effectuer des tâches multiples, pouvant inclure la génération d'images, la traduction de langues, le déplacement d'un bras robotique, des jeux vidéo, et bien d’autres usages.

La concentration du pouvoir de l’IA, un danger

Dans ses craintes formulées, Brookings estime que si une entreprise décide de déployer un modèle open source et rencontre ensuite des difficultés lors de son exploitation, en raison d’effets imprévus ou incontrôlables, elle pourrait s’en prendre au développeur lui-même et intenter une action en justice contre ce dernier. Envisager cette possibilité amène également à envisager une autre situation : celle où les développeurs eux-mêmes, face à tant de pression et de règles, réfléchissent à deux fois avant de publier un code open source. Si la communauté open source s’essouffle, les grandes entreprises technologiques auraient alors la main mise sur le développement et le pilotage de l’IA, créant une forme de marché oligopole.

Le domaine de l’intelligence artificielle étant d’ores et déjà très prisé d’entreprises IT mondiales, couper l’herbe sous le pied à la communauté de développeurs open source ne serait qu’un moyen supplémentaire de ralentir le développement de telles initiatives, qui s’avèrent onéreuses et nécessitent des compétences techniques rares. Dans une interview donnée à TechCrunch, Oren Etzioni, CEO fondateur de l'Allen Institute for AI, se dit inquiet. « Les développeurs de logiciels libres ne devraient pas être soumis aux mêmes contraintes que ceux qui développent des logiciels commerciaux. Il devrait toujours être possible de fournir un logiciel libre « tel quel ». Prenons le cas d'un étudiant qui développe une capacité d'IA : il n'a pas les moyens de se conformer à la réglementation européenne et peut être contraint de ne pas distribuer son logiciel, ce qui a un effet dissuasif sur les progrès universitaires et la reproductibilité des résultats scientifiques » détaille-t-il.

Le développement d'usages de l'IA nocifs

Selon Oren Etzioni, les régulateurs de l’UE devraient davantage « se concentrer sur des applications spécifiques de l'IA ». A ce jour, l’IA n’est pas encadrée et les usages qui en découlent se multiplient à une vitesse fulgurante, à des fins parfois néfastes pour l’humain et la société. Le développement de différentes formes de désinformation, de bots, de deep fakes, sont aujourd’hui autant de dangers auxquels l’ensemble de la société est confronté sans que cela ne soit régularisé. Ce qui n’est encore qu’une proposition aujourd’hui doit être validée prochainement par le Parlement européen ainsi que le Conseil de l’UE, qui peuvent décider de s’en tenir à une réglementation globale ou suivre une autre voie et s’attacher à la régulation des applications spécifiques de l’IA.