Après plusieurs cas aux Etats-Unis, le problème des hallucinations de l’IA dans les prétoires touchent aussi la France. Fin 2025, plusieurs tribunaux ont indiqué dans leur décision que certaines jurisprudences ou références juridiques n’existaient pas. Ainsi, le tribunal judiciaire de Périgueux a observé dans une affaire le 18 décembre dernier que « les références de jurisprudence citées par le requérant, mais non produites dans ses pièces, ne semblent pas correspondre à des décisions publiées ». Dans sa décision, le tribunal invite « le requérant et son conseil à vérifier à l'avenir que les références qu'ils ont pu trouver sur des moteurs de recherches ou à l'aide de l'intelligence artificielle ne sont pas des hallucinations ».

Le cas n’est pas isolé et les juridictions administratives sont elles aussi touchées. Le 3 décembre 2025, le tribunal administratif de Grenoble a rendu une décision dans une affaire de contestation d’une amende infligée par une mairie pour une histoire de poubelle. Le requérant se défendait lui-même et a probablement fait appel à l’IA pour élaborer sa défense. Le juge souligne que la requête « a manifestement été rédigée au moyen d'un outil dit d'intelligence artificielle générative, totalement inadapté à cet usage » et de constater la présence « de références jurisprudentielles fantaisistes ».

Des sanctions aux Etats-Unis

Un autre cas a été observé au tribunal administratif d’Orléans dans une affaire de reconduite à la frontière jugée fin décembre 2025. En effet plusieurs jurisprudences « n’existent pas soit qu’aucune décision juridictionnelle n’existe avec le numéro indiqué soit que les numéros de ces affaires ne correspondant pas aux dates y accolées ». Là encore le juge invite le conseil à vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une « hallucination » ou une « confabulation ».

Un site créé par Damien Charlotin, chercheur en droit référence les cas d’hallucinations de l’IA dans les décisions de justice dans différents pays. Sur Linkedin, les premiers cas en France ont fait l’objet de commentaires sur l’usage de l’IA dans le métier d’avocat. La technologie apporte un gain de temps, expliquent certains, mais le professionnel du droit se doit de vérifier les données produites, soulignent d’autres experts. La question des sanctions d’un tel usage a été également abordée. Aux Etats-Unis, des avocats ont été condamnés pour s’être servis de ChatGPT pour rédiger la défense d’un client comprenant des références erronées. En France, les juges semblent faire œuvre de pédagogie auprès des avocats, mais pourraient durcir leur position à l’avenir.