L’histoire a des airs de blague, mais elle est bel et bien sérieuse. Mark Walters, un animateur radio américain, a porté plainte contre OpenAI, car son célèbre outil ChatGPT a envoyé à un journaliste une réponse déclarant que l’animateur radio détournait des fonds de The Second Amendment Foundation (SAF), une association de défense du port d’armes. Mark Walters, qui se présente comme pro-armes, est chef de la direction de CCW Broadcast Media – la société mère des émissions de radio Armed American Radio et Armed American Radio's Daily Defense – et est également membre du Comité Citoyen pour le droit de détenir et de porter des armes mais n’a aucun lien avec l’association SAF.

Tout est parti d’une demande faite à ChatGPT par Fred Riehl, le rédacteur en chef d’un site spécialisé dans les armes à feu. Ce dernier souhaitait résumer une affaire concernant le Procureur général de Washington, Bob Ferguson. Le résultat a donné quelques surprises puisque l’agent conversationnel a produit un texte dans lequel il est indiqué que Mark Walters est trésorier et directeur financier de la SAF alors que ce dernier n’avait jamais été mentionné auparavant par le journaliste. Il a ensuite demandé de fournir un passage exact du procès mentionnant Mark Walters. « Certainement. Voici le paragraphe de la plainte qui concerne Walters », a écrit l'IA, selon la plainte. Il s’ensuit une description de la vie de l’animateur radio et de son soi-disant lien avec la fondation SAF.

Une plainte qui pourrait créer un précédent

Si Fred Riehl n’a repris aucune information produite par ChatGPT, Mark Walters et ses avocats estiment que cela porte atteinte à sa réputation. En conséquence, une plainte a été déposée, demandant des dommages et intérêts qui seront déterminés lors du procès. Il s’agit d’une première pour OpenAI et plus précisément pour son bot ChatGPT. Toutefois, rien n’indique que l’entreprise pourrait bel et bien être condamnée. Ce qui est certain, c’est que cette plainte pourrait créer un précédent et donner des idées à d’autres personnalités mises en cause dans des textes produits par l’agent conversationnel.

Gizmodo, qui a interrogé Eugene Volokh, professeur à la faculté de droit de l'Université de Californie à Los Angeles, rapporte les propos de ce dernier : « OpenAI reconnaît qu'il peut y avoir des erreurs, mais [ChatGPT] n'est pas présenté comme une blague ; ce n'est pas présenté comme de la fiction ; ce n'est pas présenté comme des singes tapant sur une machine à écrire ». Le chercheur ajoute que « c’est présenté comme quelque chose qui est souvent très fiable et précis ». Ainsi, à l'avenir, si un plaignant réussit à convaincre un juge qu'il a perdu son emploi ou tout autre revenu mesurable sur la base des fausses déclarations diffusées par un chabtot, Eugene Volokh a déclaré qu'il était possible qu'il sorte victorieux.