Meta travaille au développement d'outils pour identifier des images produites synthétiquement par des systèmes d'IA générative à l'échelle de ses plateformes de médias sociaux, telles que Facebook, Instagram et Threads, a déclaré l'entreprise mardi. « Nous avons travaillé avec des partenaires de l'industrie pour nous aligner sur des normes techniques communes qui signalent qu'un contenu a été créé à l'aide d'une IA. Le fait de pouvoir détecter ces signaux nous permettra d'étiqueter les images générées par l'IA que les utilisateurs publient sur Facebook, Instagram et Threads », a écrit Nick Clegg, président des affaires mondiales chez Meta, dans un billet de blog.

« Nous développons actuellement cette capacité et, dans les mois à venir, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application », a ajouté Nick Clegg. La décision de détecter les images générées par une IA par des entreprises telles que Google, OpenAI, Adobe, Shutterstock et Midjourney prend tout son sens dans la mesure où, en 2024, plusieurs élections auront lieu dans plusieurs pays, dont les États-Unis, l'Union européenne, l'Inde et l'Afrique du Sud. Cette année, Meta en apprendra davantage sur la manière dont les utilisateurs créent et partagent le contenu généré par l'IA et sur le type de transparence que les internautes jugent utile, indique Nick Clegg. La déclaration de Nick Clegg sur les élections rappelle le scandale Cambridge Analytica, mis au jour par le New York Times et The Observer en 2018, qui a vu les données Facebook d'au moins 50 millions d'utilisateurs compromises. Le mois dernier, OpenAI, l'éditeur de ChatGPT, a suspendu deux développeurs qui avaient créé un bot imitant l'espoir présidentiel démocrate Dean Phillips, membre du Congrès, marquant ainsi la première action de l'entreprise contre l'utilisation abusive de l'IA.

Des marquages déjà en vigueur sur l'IA de Meta

Selon Nick Clegg, Meta marque déjà les images créées par son propre générateur d'image assisté par l'IA, qui comprend l'ajout de marqueurs visibles et de metatags. Ces derniers sont intégrés aux métadonnées de l'image. Leur combinaison permet à d'autres plateformes d'identifier facilement les images générées par une IA, a déclaré Nick Clegg. Meta travaille également avec d'autres entreprises à l'élaboration de normes communes pour l'identification des images générées par une IA dans le cadre de forums tels que le Partenariat sur l'IA (PAI), a ajouté Nick Clegg. Cependant, il a également souligné que si plusieurs entreprises commençaient à inclure des signaux pour aider à identifier les images générées, la même politique n'était pas appliquée au son et à la vidéo.

En l'absence de politiques d'identification concernant le son et la vidéo générés, Nick Clegg a déclaré que Meta ajoutait une fonction permettant aux internautes de signaler lorsqu'ils partagent des vidéos ou du son générés par une IA, afin que l'entreprise puisse y ajouter un label. « Nous demanderons aux internautes d'utiliser cet outil de divulgation et d'étiquetage lorsqu'ils publieront du contenu organique avec une vidéo photoréaliste ou un son créé ou modifié numériquement, et nous pourrons appliquer des pénalités s'ils ne le font pas », poursuit Nick Clegg.

Contrer les risques de suppression des marqueurs

Meta a reconnu que si les outils et les normes en cours d'élaboration sont à la pointe de ce qui est possible en matière d'étiquetage des contenus générés, de mauvais acteurs pourraient encore trouver des moyens de supprimer les marqueurs invisibles. Pour contrer ce risque, l'entreprise a déclaré qu'elle travaillait sur le développement de classificateurs qui peuvent l'aider à détecter automatiquement le contenu généré par une IA, même si le contenu n'a pas de métatags. « Parallèlement, nous cherchons des moyens de rendre plus difficile la suppression ou la modification des metatags. Par exemple, le laboratoire de recherche en IA FAIR de Meta a récemment partagé des recherches sur une technologie que nous développons et qui s'appelle Stable Signature », a écrit Nick Clegg. La signature stable intègre le mécanisme de metadata directement dans le processus de génération d'images pour certains types de générateurs d'images, ce qui pourrait être utile pour les modèles open source afin qu'il ne puisse pas être désactivé, a expliqué le responsable.

Historiquement, l'entreprise a déjà utilisé des systèmes automatiques exploitant d'IA pour détecter et supprimer les discours haineux et d'autres formes de contenu qui violaient sa politique. Au troisième trimestre 2023, Meta affirme que ses systèmes d'IA ont contribué à réduire la prévalence des discours haineux sur Facebook à seulement 0,01-0,02 %. Meta prévoit d'utiliser l'IA générative pour supprimer plus rapidement les contenus nuisibles. Nous avons commencé à tester de grands modèles de langage (LLM) en les entraînant sur nos normes communautaires pour aider à déterminer si un contenu enfreint nos politiques. « Ces premiers tests suggèrent que les LLM peuvent être plus performants que les modèles d'apprentissage automatique existants », fait savoir Nick Clegg. Ces LLM aident également l'entreprise à supprimer des contenus des files d'attente d'examen dans certaines circonstances, lorsque ses examinateurs sont convaincus qu'ils n'enfreignent pas les politiques de l'entreprise, a ajouté le dirigeant.