Si les États-Unis et la Chine sont de féroces rivaux commerciaux dans le domaine des technologies, ils semblent partager un nouveau point commun : les préoccupations relatives à la responsabilité et à l'éventuelle utilisation abusive de l'IA. Mardi, les gouvernements des deux pays ont annoncé des réglementations relatives au développement de l'IA. La National Telecommunications and Information Administration (NTIA), une branche du ministère américain du commerce, a lancé un appel public officiel à contribution sur les politiques qui devraient façonner un écosystème de responsabilité en matière d'IA. Il s'agit notamment d'interrogations relatives à l'accès aux données, à la mesure de la responsabilité et à la manière dont les approches de l'IA pourraient varier dans différents secteurs d'activité, tels que l'emploi ou la santé.

Les commentaires écrits en réponse à la demande doivent être fournis à la NTIA avant le 10 juin 2023, soit 60 jours à compter de la date de publication dans le registre fédéral. Cette nouvelle intervient le jour même où la Cyberspace Administration of China (CAC) a dévoilé un certain nombre de projets de mesures pour la gestion des services d'IA générative, notamment en rendant les fournisseurs responsables de la validité des données utilisées pour former les outils d'IA générative. La CAC a déclaré que les fournisseurs devraient être responsables de la validité des données utilisées pour former les outils d'IA et que des mesures devraient être prises pour prévenir la discrimination lors de la conception des algorithmes et des ensembles de données de formation, selon un article de Reuters. Les entreprises devront également soumettre des évaluations de sécurité au gouvernement avant de lancer leurs outils d'IA au public.

Réglementation de l'IA contre innovation

Si des contenus inappropriés sont générés par leurs plateformes, les entreprises devront mettre à jour la technologie dans les trois mois afin d'empêcher que des contenus similaires soient à nouveau générés, selon le projet de règles. En cas de non-respect de ces règles, les fournisseurs se verront infliger des amendes, leurs services seront suspendus ou ils feront l'objet d'une enquête pénale. Tout contenu élaboré par l'IA générative doit être conforme aux valeurs socialistes fondamentales du pays, a déclaré la CAC. Les géants chinois de la technologie ont bien avancé dans le développement de l'IA. L'annonce de la CAC a été faite le jour même où Alibaba Cloud a annoncé un modèle de langage étendu, appelé Tongyi Qianwen, qu'il va déployer en tant qu'interface de type ChatGPT pour toutes ses applications commerciales. Le mois dernier, un autre géant chinois des services internet et de l'IA, Baidu, a annoncé une variante au ChatGPT en langue chinoise, Ernie bot.

Si le gouvernement chinois a établi un ensemble clair de lignes directrices réglementaires, d'autres gouvernements dans le monde adoptent une approche différente. Le mois dernier, le gouvernement britannique a déclaré que pour « éviter une législation trop lourde qui pourrait étouffer l'innovation », il avait choisi de ne pas confier la responsabilité de la gouvernance de l'IA à un nouveau régulateur unique, appelant plutôt les régulateurs existants à proposer leurs propres approches qui conviennent le mieux à la façon dont l'IA est utilisée dans leurs secteurs. Toutefois, cette orientation a été critiquée par certains, les experts du secteur faisant valoir que les cadres existants pourraient ne pas être en mesure de réglementer efficacement l'IA en raison de la nature complexe et multicouche de certains outils d'IA, ce qui signifie que la confusion entre les différents régimes sera inévitable.

Par ailleurs, l'autorité britannique de régulation des données a adressé un avertissement aux entreprises technologiques concernant la protection des informations personnelles lors du développement et du déploiement d'IA génératifs en tant que LLM, tandis que l'autorité italienne de régulation de la confidentialité des données a interdit ChatGPT en raison d'allégations de violations de la vie privée. Un groupe de 1 100 leaders technologiques et scientifiques a également appelé à une pause de six mois dans le développement de systèmes plus puissants que le modèle GPT-4 récemment lancé par OpenAI.

L’erreur, base de l’apprentissage

Lorsqu'il s'agit d'innovation technologique et de réglementation, la plupart des gouvernements et des législateurs suivent généralement un certain chemin naturel, a déclaré Frank Buytendijk, analyste chez Gartner. « Lorsqu'une nouvelle technologie est mise sur le marché, nous apprenons à l'utiliser de manière responsable en commettant des erreurs », a-t-il déclaré. « C'est ce que nous faisons actuellement avec l'IA ». Selon cet analyste, la réglementation commence à émerger - permettant aux développeurs, aux utilisateurs et aux systèmes juridiques d'apprendre l'utilisation responsable par l'interprétation de la loi et de la jurisprudence - suivie de la phase finale, où les technologies intégrant l'utilisation responsable. « Nous apprenons ce qu'est l'utilisation responsable grâce à ces meilleures pratiques intégrées, il s'agit donc d'un processus », a déclaré M. Buytendijk.