Mine de rien, cela va bientôt faire 6 ans que la Commission européenne planche sur un plan Marshall de l'IA pour le vieux continent. Certes entre temps la pandémie de Covid a gelé de nombreuses initiatives, mais l'inertie de ses membres à se mettre d'accord sur ce sujet et entériner un texte commun montre à quel point l'Europe peut parfois tendre davantage vers l'usine à gaz qu'une machine bien huilée. Et ce alors que cette même Commission avait enjoint les Etats membres et les entreprises à se mettre rapidement en ordre de marche notamment sur le chantier de l'investissement.

Quelques mois après sa validation par le Parlement européen - le bout du tunnel n'était (enfin) donc plus très loin pour l'IA Act. Mais les dernières négociations pour déclarer officiellement sa naissance continuent pourtant de trainer en longueur. « De nombreux progrès ont été réalisés au cours des 22 dernières heures sur la #AIAct », a tweeté jeudi en début d'après-midi le commissaire européen chargé du marché intérieur Thierry Breton. « Reprise des travaux avec le Parlement et le Conseil de l'UE demain à 9h00. Restez à l'écoute ! ». Si le ton est léger, la longueur des négociations actuelles au sein des membres de la Commission européenne pour valider l'IA Act est à l'image du sujet : épineux. Au-delà de se mettre d'accord sur les moyens à allouer (humains, techniques, financiers...) pour faire émerger une IA européenne qui puisse peser - d'aucun diront exister - sur la scène mondiale face à des poids-lourds tel que les Etats-Unis ou la Chine, c'est aussi la question qui entoure sa régulation (sécurité, confiance...) qui est au coeur des enjeux de l'Europe.

Un lobbying bien présent pour éviter toute réglementation excessive

Sur ce point, les freins sont nombreux pour éviter qu'une réglementation excessive pèse sur l'essor d'une IA européenne solide. Voire, comme le craint le groupe de lobbying Digital Europe, que des start-ups innovantes dans ce domaine prennent la poudre d'escampette pour de l'herbe plus verte ailleurs. Autre aspect des négociations : l'instauration d'un cadre de confiance dans l'utilisation de l'intelligence artificielle, à l'heure où les IA génératives se multiplient comme des petits pains autant que les risques que cette technologie induit (moraux, éthiques, sociaux...). Sur ce point, le Parlement européen avait posé ses conditions : « L'IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l'IA, concevoir le modèle pour l'empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d'auteur utilisées pour la formation ».

Reste à voir jusqu'à quel point - et quand - le "trilogue" va arriver à se mettre d'accord sur ce point comme sur bien d'autres, en particulier sur les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'IA. Et se plier - ou pas - aux pressions en tout genre.