Dans sa déclaration publiée lundi, l’ONU avertit que, sans règles internationales contraignantes, l’humanité fait face à des risques croissants, allant des pandémies artificielles et de la désinformation à grande échelle aux menaces pour la sécurité mondiale, aux violations systématiques des droits humains et à la perte de contrôle sur les systèmes avancés. Pour limiter ces dangers, l’organisation appelle les États à définir d’ici fin 2026 ce qu’elle qualifie de “lignes rouges de l’IA”, c’est-à-dire des limites à ne pas franchir pour l’intelligence artificielle.
Des interdictions et un traité en trois piliers
Dans un document de questions-réponses, l’ONU propose plusieurs interdictions possibles, comme l’utilisation de l’IA dans le commandement nucléaire ou pour des armes létales autonomes, la surveillance de masse, l’usurpation d’identité humaine via des systèmes capables de tromper les utilisateurs sans révéler qu’il s’agit d’IA, ou des usages malveillants en cybersécurité pouvant perturber des infrastructures critiques. L’organisation souhaite également interdire l’auto-réplication autonome ou le développement de systèmes que l’on ne pourrait pas arrêter en cas de perte de contrôle humain.
L’ONU insiste sur trois piliers pour tout futur traité : une liste claire des interdictions, des mécanismes de vérification auditable et une instance indépendante chargée de superviser la mise en œuvre. Pour autant, de nombreux analystes doutent de la faisabilité pratique et de l’efficacité de ces restrictions à l’échelle mondiale. Les préoccupations des analystes ne se sont pas concentrées sur ce que l'ONU tente, mais sur la question de savoir si suffisamment de pays la soutiendraient, si sa mise en œuvre fixé fin 2026 est assez tôt pour faire une différence et si elle est exécutoire de manière significative.
Des experts sceptiques sur l’impact réel
Les analystes soulignent que les règles de l’ONU pourraient affecter les entreprises, surtout en matière de conformité, même si elles visent principalement les hyperscalers et fournisseurs d’IA. Certaines restrictions pourraient concerner l’usage de l’IA pour sélectionner des candidats, accorder des crédits ou entraîner des modèles sur des données confidentielles. Les entreprises devraient respecter les régulations des pays signataires, comme l’Allemagne, le Canada, la Suisse ou le Japon, qui disposent déjà de leurs propres règles. Valence Howden, consultant chez Info-Tech Research Group, reconnaît les bonnes intentions de l’ONU mais doute de la faisabilité de son projet. Selon lui, les risques liés à l’IA dépassent les frontières, ce qui rend la protection des organisations très complexe. Il ajoute, que même si l’initiative de l'institution onusienne était adoptée, il est peu probable que les principaux hyperscalers, respectent ces règles.
Brian Levine, ancien procureur fédéral et directeur de FormerGov, estime que la mesure de l’ONU sera probablement adoptée, la plupart des pays soutenant les principes fondamentaux. « Mais ces principes resteront très généraux et ne feront pas avancer les choses de manière concrète », note-t-il. Selon lui, accepter la proposition comporte peu de risque, les pays considérant que « de toute façon, elle ne sera pas applicable ». L’ONU a déjà mené des initiatives similaires, comme il y a environ 11 ans, lorsqu’elle a tenté d’interdire les robots tueurs autonomes, sans résultats significatifs. Peter Salib, professeur adjoint de droit à l’Université de Houston, souligne que les systèmes de génération d’IA actuels rendent les risques beaucoup plus tangibles qu’en 2014. Toutefois, il doute que l’initiative actuelle produise un changement concret : « Probablement, rien de significatif ne se passera. Les pays tiennent avant tout à leur souveraineté. »