Les très médiatiques irruptions dans nos vies de ChatGPT et Dall-E chez Open AI ou de BARD chez Google ont montré que notre humanité maîtrisait des intelligences artificielles actives, c’est-à-dire capables, sur la base de code informatique, de générer des contenus nouveaux et de produire des choses. Cette capacité à créer ouvre de nouveaux horizons et modifie en profondeur les services numériques et, plus largement, nos sociétés.

Vers une humanité orientée par l’IA 

L’IA est un domaine en constante évolution qui promet d’apporter des avantages considérables aux humains. Mais plus elle sera autonome, plus il faudra rester attentif à la manière dont elle fonctionne pour éviter les dérives discriminatoires, les biais ou les violations de droit. En effet, la révolution numérique, et celle de l’IA en particulier, est porteuse de deux mouvements clés :

1/ Le deskilling ou désapprentissage des compétences car l’informatique réalise beaucoup mieux, plus vite et plus massivement des tâches, de sorte que nous les déléguons jusqu’à les oublier (le GPS a ainsi altéré notre sens de l’orientation) ;

2/ L’hyperpersonnalisation des services ou des expériences grâce au traitement massif de données personnelles, à tel point que l’on peut se demander si, dans les mondes virtuels comme le metavers qu’on nous promet, nous vivrons tous la même chose. Les contenus, les événements et les images pourraient par exemple différer selon les personnes, dans la même logique que le « fil d’actualité » des réseaux sociaux.

Si le mouvement d’utilisation grandissante de l’IA semble inarrêtable, sauf à adopter une posture de rupture et excluant le numérique ou l’innovation, nous devons, collectivement, faire attention à ne pas être dépossédés du contrôle de ces technologies.

Des règles juridiques pour accompagner cette mutation

Or, garder la maîtrise sur ces technologies passe sans hésitation par le régulateur. Il faut des règles, il faut des lois et il faut fixer des limites. Ce constat n’est pas celui d’un opposant à la technologie ou d’une personne souhaitant brider l’innovation, mais celui d’un avocat expert de ces sujets.

En effet, il faut prendre acte de l’échec des textes non normatifs fondés sur une approche éthique. Depuis 2017, de nombreux instruments de « droit souple » comme des chartes, des lignes directrices ou des recommandations ont été adoptés par les autorités internationales (l’Union européenne, l’OCDE, le Conseil de l’Europe ou l’UNESCO). C’est le cas de la résolution du Parlement européen du 16 février 2017, n°51. L’idée était de fixer des standards permettant de respecter les droits fondamentaux, mais les dérives de privatisation des normes ou de désengagement des États sont trop dommageables.

L’IA n’est pas une technologie comme les autres, car elle fait œuvre de création. Ainsi, il est nécessaire de porter des valeurs dans sa construction, son déploiement et son utilisation, ce qui ne peut pas être fait sans contrainte réglementaire. À nouveau, le terme « contrainte » ne doit pas être perçu comme une barrière ou une limite à l’innovation, mais plutôt comme la nécessité de fixer les bornes au sein desquelles on peut développer ces technologies.

Tout ne doit pas être fait, même si c'est technologiquement possible. Des systèmes normatifs doivent poser des limites. Non la régulation n’est ni un obstacle, ni un frein au progrès, pour autant qu’elle soit bien construite. C’est la garantie d’un équilibre et de la promotion d’une innovation technologique responsable, consciente de ses possibles excès et travers.

La réglementation européenne sur l’IA en construction

Les efforts de régulation initiés par l’Union européenne doivent être intensifiés et accélérés pour devenir une priorité. Notre région du monde doit se positionner à la pointe de la régulation dans ce domaine et permettre de fixer un standard mondial, comme ce fut le cas avec le règlement général sur la protection des données (RGPD).

D’une part, la proposition de règlement européen sur l’intelligence artificielle (IA Act) publiée le 21 avril 2021 se focalise sur une responsabilisation des acteurs.

En substance, le projet de règlement adopte une approche graduée selon les risques identifiés. On retrouve ainsi des usages bannis en raison de leur nature (par exemple, le crédit social qui consiste en un système de notation des individus pour pouvoir prendre des décisions les concernant), les applications à haut risque (par exemple, les dispositifs médicaux qui orientent les décisions médicales) et les cas à risque limité (les chatbots ou les deep fakes par exemple). Plus les risques sont grands, plus les obligations et les exigences juridiques sont élevées.

Même si sa rédaction est évolutive, tant en raison des équilibres politiques au Parlement européen (le parti populaire européen par exemple est en faveur d’une interdiction stricte de l’identification biométrique) qu’en raison de la technologie elle-même (ChatGPT et BARD ont permis au régulateur de se rendre compte que les IA génératrices de contenus étaient a priori hors du champ du règlement – le 14 mars 2023, un texte de compromis fixe les limites dans lesquelles ces IA génératrices pourraient être incluses dans le champ du règlement), un accord pourrait être trouvé dans les prochaines semaines (une réunion technique est prévue le 20 mars prochain). L’objectif des corapporteurs (Dragos Tudorache et Brando Benifei) étant de voter le texte en session plénière les 28 et 29 mars 2023. Cependant, sa mise en application ne pourra raisonnablement pas intervenir avant 2024.

D’autre part, il y a une adaptation des règles existantes avec une proposition de directive relative à la responsabilité des produits défectueux et une proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle.

Ces deux propositions du 28 septembre 2022 constituent des axes complémentaires à l’IA Act dans le but d’appréhender les systèmes d’intelligence artificielle (SIA). En encadrant l’amont, c’est-à-dire la création, le développement et le fonctionnement, et en réglementant l’aval, c’est-à-dire les applications et la responsabilité, le législateur cherche à appréhender le phénomène dans son ensemble.

Cependant, ces nouvelles réglementations ne seront pas applicables immédiatement. Alors que de leur côté, l’innovation et les technologies vont continuer de se développer, créant ainsi un décalage entre la réalité opérationnelle et le droit. Les textes juridiques sont toujours en retard par rapport aux entrepreneuses et entrepreneurs, mais il faut s’efforcer de réduire ce délai le plus possible. Or, pour l’IA, on peut craindre que le décalage soit trop important et engendre des difficultés insurmontables.

En plus de l’existence de règles, il faut que les régulateurs se dotent de compétences pour comprendre, maîtriser et contrôler ces technologies de pointe. À titre d’exemple, la CNIL a annoncé la création d’un service dédié à l’IA, ce qui est une bonne chose. Mais, en regardant de plus près, on constate qu’il s’agit d’un service de 5 personnes, ce qui est sans aucun doute insuffisant au vu de l’ampleur des mutations causées par l’IA.

Pour garder la main sur les IA, il faut être ambitieux pour soutenir l’innovation et permettre aux entreprises de créer des systèmes d’information conformes aux valeurs humaines. Cela passe par de la normativité et une capacité d’action réelle des régulateurs. Il faut rester au contact des nouveautés et les comprendre pour les encadrer efficacement. Tout le monde y gagnera.