De temps en temps un cas d’hallucination ou de mauvais usage de l’IAG dans le juridique fait le buzz et marque les esprits.
Ceci est amplifié si le cas passe dans la presse généraliste ou s’il concerne un cabinet ou une entité bien identifiée.

Un cas chasse l’autre. Pas facile de s’y retrouver.

Heureusement certaines personnes ont compilé les décisions de condamnation de mauvais usage de l’IA.

AI Hallucination Cases

Damien Charlotin a fait un remarquable travail d’indexation des cas sous forme de base de données avec les liens vers les décisions lorsqu’elles sont disponibles

https://www.damiencharlotin.com/hallucinations/

database tracking legal cases where generative AI produced hallucinated citations submitted in court filings.

Des commentaires ici :

https://mashable.com/article/over-120-court-cases-caught-ai-hallucinations-new-database

https://www.forbes.com/sites/larsdaniel/2025/07/18/attorneys-track-ai-hallucination-case-citations-with-this-new-tool/

« Lorsque l’IA invente une décision de justice et que le juriste ne la vérifie pas, ce n’est plus une erreur mais une faute », Le Monde, 30 octobre 2025

Le chercheur en droit Damien Charlotin recense les affaires où des avocats ont été dupés par les erreurs d’une intelligence artificielle juridique. Des cas qui illustrent la nécessité de bien former les futurs professionnels à ces outils, assure-t-il, dans un entretien au « Monde ».

Cocorico cette base est française mais j’en ai vu d’autres. Au moins une par un avocat anglais et j’imagine qu’il en existe aussi aux USA ou ailleurs dans le monde.

Ce qui est intéressant avec la base de Damien Charlotin c’est qu’elle a été repérée par la presse et que grâce à des articles récents nous pouvons suivre son évolution.

De en 120 cas en mai 2025 à 508 cas début novembre 2025

Avec ce rapide article, je rajoute juste un jalon. Au moment de la rédaction de l’article nous sommes le 3 novembre 2025 et la base contient 508 cas.

Plus qu’un référencement de cas c’est surtout une alerte sur l’usage de l’intelligence artificielle par les professionnelles du droit.
Toujours garder en tête :

  1. L’IAG sait rarement dire qu’elle ne sait pas ; elle est conçue pour répondre quoi qu’il arrive ;
  2. Elle répond de manière tellement assertive qu’elle nous ferait presque douter et pourtant il faut douter ;
  3. Un usage mal encadré de l’IA peut avoir des répercussions catastrophiques aussi bien judiciairement parlant, financièrement et surtout en termes de risque réputationnel.

Pour enfoncer le clou, voir aussi l’article Faute de gouvernance, les projets IA génèrent des pertes, Le Monde informatique – Paru le 28/10/2025

« Une étude d’EY, publiée en juin [2025] et basée sur les réponses de 975 dirigeants travaillant pour des entreprises réalisant plus d’un milliard de dollars de chiffre d ‘affaires, souligne que plus de trois organisations sur cinq ont déjà subi des pertes d’au moins un million de dollars provenant de risques liés à l’IA, et que la quasi-totalité des organisations (99 %) reconnaissent un impact financier né d’usages mal encadrés de la technologie. EY estime les pertes totales des participants à son étude à 4,3 Md$. »


Illustration

Photo personnelle : détail d’une création textile Alicia Lasne, exposition L’étoffe des rêves, La Halle St Pierre, Paris, 2025

Publié le 04/11/2025, modifié le 4 novembre 2025