Selon des chercheurs de Google et de l'université de Stanford, une conversation de deux heures avec un modèle d'IA suffit à créer une image assez précise de la personnalité d'une personne réelle. Dans le cadre d'une étude récente, les chercheurs ont pu générer des « agents de simulation » - essentiellement des clones IA - de 1 052 personnes sur la base d'entretiens de deux heures avec chaque participant. Ces entretiens, basés sur un protocole d'entretien développé par l'American Voices Project, qui explore une série de sujets d'intérêt pour les chercheurs en sciences sociales, y compris les récits de vie et les points de vue sur les questions sociétales actuelles, ont été utilisés pour former un modèle d'IA génératif conçu pour imiter le comportement humain.
Pour évaluer la précision des répliques de l'IA, chaque participant a effectué deux séries de tests de personnalité, d'enquêtes sociales et de jeux de logique. Lorsque les répliques d'IA ont effectué les mêmes tests, leurs résultats correspondaient aux réponses de leurs homologues humains avec une précision de 85 %. Dans les questionnaires de personnalité, les réponses des clones d'IA différaient peu de celles de leurs homologues humains. Les clones sont particulièrement performants lorsqu'il s'agit de reproduire les réponses aux questionnaires de personnalité et de déterminer les attitudes sociales. En revanche, ils étaient moins précis lorsqu'il s'agissait de prédire le comportement dans des jeux interactifs impliquant des décisions économiques.
Des craintes de détournement d'usage
Les scientifiques expliquent que le développement des agents de simulation a été motivé par la possibilité de les utiliser pour mener des études qui seraient coûteuses, peu pratiques ou contraires à l'éthique avec des sujets humains réels. Par exemple, les modèles d'IA pourraient aider à évaluer l'efficacité des mesures de santé publique ou à mieux comprendre les réactions au lancement d'un produit. Selon les chercheurs, il serait même envisageable de modéliser les réactions à des événements sociaux importants. « La simulation générale des attitudes et des comportements humains pourrait offrir aux chercheurs de tester un large éventail d'interventions et de théories », écrivent les chercheurs.
Toutefois, les scientifiques reconnaissent également que la technologie pourrait être utilisée à mauvais escient. Par exemple, les agents de simulation pourraient servir pour tromper d'autres personnes en ligne avec des attaques deepfake. Les experts en sécurité constatent déjà que ce moyen progresse rapidement et pensent que ce n'est qu'une question de temps avant que les cybercriminels ne trouvent un business model qu'ils pourront utiliser contre les entreprises. De nombreux dirigeants ont déjà déclaré que leur entreprise avait été la cible d'escroqueries par deepfake ces derniers temps, notamment en ce qui concerne les données financières. La société de sécurité Exabeam a récemment évoqué un incident au cours duquel un deepfake a été utilisé dans le cadre d'un entretien d'embauche, en liaison avec l'escroquerie nord-coréenne de faux informaticiens qui prend de l'ampleur.
Vers la création d'une banque d'agents IA ?
Les chercheurs de Google et de Stanford proposent la création d'une « banque d'agents » regroupant le millier d'agents de simulation générés. Cette banque, hébergée à l'université de Stanford, « fournirait un accès API contrôlé, réservé à la recherche, aux comportements des agents », selon les chercheurs. Bien que la recherche ne fasse pas expressément progresser les capacités de création de deepfakes, elle montre ce qui devient rapidement possible en termes de création de personnalités humaines simulées dans la recherche avancée d'aujourd'hui.
Commentaire