Digital Europe, un groupe de lobbying représentant les industries IT à travers le continent, a publié une déclaration commune avant les dernières semaines de négociation de la réglementation européenne sur l'IA, avertissant qu'une réglementation excessive pourrait paralyser l'innovation et pousser les start-ups à quitter le continent. L'argument principal du groupe est que l'IA Act va au-delà de son champ d'application initial et devrait plutôt se concentrer sur les cas d'utilisation à haut risque, plutôt que de viser des technologies spécifiques. Digital Europe a également prévenu que la charge financière que la loi pourrait imposer aux entreprises souhaitant mettre sur le marché des produits basés sur l'IA pourrait rendre l'exploitation en dehors de l'UE non viable pour les petites entreprises.

« Pour que l'Europe devienne une puissance numérique mondiale, nous avons besoin d'entreprises capables de mener l'innovation en matière d'IA en utilisant également des modèles de fondation et le GPAI (General-purpose AI) », peut-on lire dans la déclaration. « En tant que représentants de l'industrie numérique européenne, nous voyons une énorme opportunité dans les modèles de base, et de nouveaux acteurs innovants émergent dans cet espace, dont beaucoup sont nés ici en Europe. Ne les obligeons pas à disparaître avant qu'ils n'aient eu la chance de se développer, ou ne les forçons pas à partir ». La lettre a été signée par 32 membres de Digital Europe (incuant Michel Combot, délégué général de Numeum) et présente quatre recommandations qui, selon les signataires, permettraient à la loi de trouver l'équilibre nécessaire entre la réglementation et l'innovation.

Il s'agit notamment de veiller à ce que l'approche fondée sur le risque reste au cœur du règlement sur l'IA, de mieux aligner le cadre sur la législation existante en matière de sécurité des produits et d'ignorer les demandes visant à ce que la réglementation s'attaque aux questions de droit d'auteur. « Le cadre global de protection et d'application des droits d'auteur de l'UE contient déjà des dispositions qui peuvent aider à résoudre les problèmes de droits d'auteur liés à l'IA, tels que l'exemption pour l'exploration de texte et de données et l'exemption correspondante », peut-on lire dans la déclaration.

Des craintes de surrèglementation ont déjà été exprimées par le passé

Ce n'est pas la première fois que l’AI Act européen fait l'objet de critiques de la part de dirigeants de l'industrie qui s'inquiètent de la portée de la législation et de son potentiel à surréglementer l'industrie. En juin dernier, 163 cadres éminents représentant certaines des plus grandes entreprises technologiques et commerciales d'Europe, dont Airbus, ARM, Capgemini, Schneider Electric et Siemens, ont signé une lettre ouverte exhortant l'UE à adopter une approche plus souple en matière de réglementation de l'IA, craignant que le projet de loi sur l'IA ne rende le continent moins compétitif dans ce domaine en plein essor. « Vouloir ancrer la réglementation de l'IA générative dans la loi et procéder à une logique de conformité rigide est une approche aussi bureaucratique qu'inefficace pour remplir son objectif », indique la lettre. « Dans un contexte où nous en savons très peu sur les risques réels, le modèle commercial ou les applications de l'IA générative, le droit européen devrait se limiter à énoncer de grands principes dans le cadre d'une approche fondée sur les risques ». Bien que la loi sur l'IA ait été approuvée par le Parlement européen en juin, elle doit être ratifiée par chaque pays de l'UE avant d'avoir force de loi.

Si les pays s'accordent largement sur les exigences en matière d'étiquetage et sur les mesures de protection contre les contenus générés par l'IA, les propositions d'interdiction de la surveillance biométrique dans les lieux publics et des systèmes dits de "notation sociale", qui classent les personnes en fonction de leur comportement social, de leur statut socio-économique et de leurs caractéristiques personnelles, ont suscité des réactions négatives. Lorsque la loi sur l'IA sera finalement adoptée, le non-respect de ses dispositions entraînera des sanctions pouvant aller jusqu'à 21,8 millions de dollars (20 millions d'euros) ou 4 % du chiffre d'affaires mondial.