in

OpenAI poursuivi pour hallucination ChatGPT « diffamatoire » à propos de l’argent

Lorsqu’un journaliste d’un site Web d’armes à feu a demandé ChatGPT d’OpenAI de lui fournir un résumé de l’affaire La Fondation du deuxième amendement contre Robert Ferguson plus tôt cette année, il a déclaré que le chatbot AI avait rapidement craché une réponse. Il aurait affirmé avec confiance que l’affaire impliquait un animateur de radio géorgien nommé Mark Walters, accusé d’avoir détourné de l’argent de la Second Amendment Foundation (SAF). Le seul problème : rien de tout cela n’était vrai. En réalité, Walters n’avait rien à voir avec le costume. Au lieu de cela, Walters affirme qu’il était le destinataire de ce que les chercheurs appellent une « hallucination » de l’IA. Maintenant, il a déposé une première plainte en diffamation contre ChatGPT pour avoir prétendument porté atteinte à sa réputation.

«Chaque déclaration de fait dans le résumé concernant Walters est fausse», lit-on dans la poursuite, déposée devant la Cour supérieure du comté de Gwinnett le 5 juin. L’avocat de Walters affirme qu’OpenAI a agi avec négligence et « publié des documents diffamatoires concernant Walters » lorsqu’il a montré les fausses informations au journaliste.

Un expert juridique qui s’est entretenu avec Gizmodo a déclaré que la plainte de Walters représente probablement la première de ce qui pourrait être une litanie de poursuites judiciaires visant à poursuivre les sociétés d’intelligence artificielle en justice pour les fabrications bien documentées de leur produit. Et bien que les mérites de ce cas particulier semblent au mieux fragiles, l’expert a noté qu’il pourrait ouvrir la voie à une vague de poursuites compliquées qui testent les limites de la loi sur la diffamation.

« Les principes juridiques existants rendent au moins certaines de ces poursuites potentiellement viables », a déclaré Eugene Volokh, professeur à la faculté de droit de l’Université de Californie à Los Angeles, à Gizmodo.

Pourquoi Mark Walters poursuit-il OpenAI pour les hallucinations de ChatGPT ?

Lorsque le journaliste d’armes à feu, Fred Riehl, a demandé à ChatGPT de fournir un résumé de la poursuite en question le 4 mai, le grand modèle linguistique aurait déclaré qu’il s’agissait d’une plainte légale déposée par le fondateur et vice-président exécutif de la Second Amendement Foundation (SAF) déposée contre Walters, animateur de Armed American Radio, que ChatGPT a identifié comme le trésorier et directeur financier de SAF. Walters, selon ChatGPT, « a détourné des fonds pour des dépenses personnelles sans autorisation ni remboursement, a manipulé des dossiers financiers et des relevés bancaires pour dissimuler ses activités et n’a pas fourni de rapports financiers précis et opportuns », selon la plainte.

Mais Walters prétend qu’il n’aurait pas pu détourner ces fonds parce qu’il n’est pas et n’a jamais été le trésorier ou le directeur financier de SAF. En fait, il ne travaille pas du tout pour la fondation, selon son costume. Une lecture de la réel SAF c.Ferguson plainte ne montre aucun signe du nom de Walters dans ses 30 pages. Cette plainte n’a rien à voir avec les revendications comptables financières du tout. ChatGPT a halluciné le nom de Walters et la fausse histoire dans son récit d’un véritable document juridique, affirme Walters.

« La plainte n’allègue pas que Walters a détourné des fonds pour des dépenses personnelles, manipulé des dossiers financiers ou des relevés bancaires, ou n’a pas fourni de rapports financiers à la direction de SAF, et il n’aurait pas été en mesure de le faire parce qu’il n’a pas d’emploi ou de relation officielle. », lit-on dans le costume de Walters.

Lorsque le journaliste sceptique a demandé à ChatGPT de lui fournir un passage exact du procès mentionnant Walters, le chatbot aurait doublé sa demande.

« Certainement », a répondu l’IA, selon le costume de Walters. « Voici le paragraphe de la plainte qui concerne Walters. » Le morceau de texte renvoyé par ChatGPT, inclus ci-dessous, n’existe pas dans la plainte réelle. L’IA s’est même trompée de numéro de dossier.

« L’accusé Mark Walters (‘Walters’) est un individu qui réside en Géorgie. Walters est trésorier et directeur financier de SAF depuis au moins 2012. Walters a accès aux comptes bancaires et aux dossiers financiers de SAF et est responsable de la tenue de ces dossiers et de la fourniture de rapports financiers au conseil d’administration de SAF. Walters a envers SAF une obligation fiduciaire de loyauté et de diligence, et est tenu d’agir de bonne foi et en ayant à l’esprit les meilleurs intérêts de SAF. Walters a enfreint ces devoirs et responsabilités, entre autres, en détournant et en détournant les fonds et les actifs de SAF à son propre profit, et en manipulant les dossiers financiers et les relevés bancaires de SAF pour dissimuler ses activités.

Riehl a contacté les avocats impliqués dans SAF c.Ferguson pour savoir ce qui s’est réellement passé, et il n’a pas inclus les fausses informations sur Walters dans une histoire, selon la plainte de Walters. Riehl n’a pas immédiatement répondu à une demande de commentaire.

OpenAI et son fondateur Sam Altman ont admis ces hallucinations sont un problème qui doit être résolu. L’entreprise a publié un article de blog la semaine dernière en disant que son équipe travaille sur de nouveaux modèles censés réduire ces mensonges.

« Même les modèles de pointe produisent encore des erreurs logiques, souvent appelées hallucinations », a écrit Karl Cobbe, chercheur à OpenAI. « L’atténuation des hallucinations est une étape critique vers la construction d’une AGI (intelligence générale artificielle) alignée. » OpenAI n’a pas répondu à la demande de commentaire de Gizmodo.

Walters gagnera-t-il son procès contre OpenAI ?

Un avocat de l’animateur de radio géorgien affirme que les allégations de ChatGPT concernant son client étaient « fausses et malveillantes » et pourraient nuire à la réputation de Walters en « l’exposant à la haine, au mépris ou au ridicule du public ». L’avocat de Walters n’a pas immédiatement répondu à une demande de commentaire.

Volokh, professeur à l’UCLA et auteur d’un article à paraître dans une revue juridique sur la responsabilité juridique concernant la production des modèles d’IA, est moins confiant que les avocats de Walters dans la solidité de l’affaire. Volokh a déclaré à Gizmodo qu’il croyait qu’il existait des situations où les plaignants pourraient poursuivre les fabricants d’IA pour diffamation et obtenir gain de cause, mais que Walters, dans ce cas, n’avait pas réussi à montrer quels dommages réels avaient été causés à sa réputation. Dans cet exemple, Walters semble poursuivre OpenAI pour des dommages-intérêts punitifs ou présumés. Pour gagner ces dommages-intérêts, Walters devrait montrer qu’OpenAI a agi avec « la connaissance du mensonge ou le mépris imprudent de la possibilité du mensonge », un niveau de preuve souvent appelé la norme de « malveillance réelle » dans les affaires de diffamation, a déclaré Volokh.

« Il peut y avoir une imprudence quant à la conception du logiciel en général, mais je m’attends à ce que les tribunaux exigent des preuves qu’OpenAI était subjectivement conscient que ces fausses déclarations particulières étaient en cours de création », a déclaré Volokh.

Pourtant, Volokh a souligné que les limites spécifiques de cette affaire ne signifient pas nécessairement que d’autres affaires de diffamation ne pourraient pas réussir contre des entreprises technologiques sur toute la ligne. Des modèles comme ChatGPT transmettent des informations aux individus et, surtout, peuvent transmettre ces informations sous forme d’affirmation factuelle. même quand c’est carrément faux. Ces points, a-t-il noté, satisfont à de nombreuses conditions nécessaires en vertu de la loi sur la diffamation. Et bien que de nombreuses sociétés Internet aient évité les poursuites en diffamation dans le passé grâce au bouclier juridique de Article 230 de la loi sur la décence des communicationsces protections ne s’appliqueraient probablement pas aux chatbots, car ils génèrent leurs propres nouvelles chaînes d’informations plutôt que de refaire surface les commentaires d’un autre utilisateur humain.

« Si tout ce qu’une entreprise fait est de mettre en place un programme qui cite des éléments d’un site Web en réponse à une requête, cela lui donne l’immunité en vertu de l’article 230 », a déclaré Volokh. « Mais si le programme compose quelque chose mot par mot, alors cette composition relève de la responsabilité de l’entreprise. »

Volokh a poursuivi en disant que la défense faite par OpenAI et des sociétés similaires selon lesquelles les chatbots sont clairement des sources d’informations peu fiables ne lui convient pas, car ils favorisent simultanément le succès de la technologie.

« OpenAI reconnaît qu’il peut y avoir des erreurs mais (ChatGPT) n’est pas présenté comme une blague ; ce n’est pas présenté comme de la fiction ; ce n’est pas présenté comme des singes tapant sur une machine à écrire », a-t-il déclaré. « C’est présenté comme quelque chose qui est souvent très fiable et précis. »

À l’avenir, si un plaignant réussit à convaincre un juge qu’il a perdu son emploi ou tout autre revenu mesurable sur la base des fausses déclarations diffusées par un chabtot, Volokh a déclaré qu’il était possible qu’il sorte victorieux.

Ce n’est pas la première fois que des chatbots IA répandent des mensonges sur de vraies personnes

Volokh a déclaré à Gizmodo que c’était le premier cas qu’il avait vu d’un plaignant tentant de poursuivre une société d’IA pour du matériel prétendument diffamatoire produit par ses produits. Il y a cependant eu d’autres exemples de personnes affirmant que les modèles d’IA les avaient déformés. Plus tôt cette année, Brian Hood, le maire régional de Hepburn Shire en Australie, menacé de poursuivre OpenAI après que son modèle l’aurait nommé comme un criminel condamné impliqué dans un scandale de corruption. Non seulement Hood n’était pas impliqué dans le crime, mais il était en fait Le siffleur qui a révélé l’incident.

À peu près à la même époque, un professeur de droit de l’Université George Washington nommé Jonathan Turley a déclaré que lui et plusieurs autres professeurs étaient faussement accusé de harcèlement sexuel par ChatGPT. Le modèle, selon Turley, a fabriqué une histoire du Washington Post ainsi que des citations hallucinées pour étayer les affirmations. Les fausses citations et citations deviennent rapidement un enjeu majeur pour les modèles d’IA générative.

Et bien qu’OpenAI reconnaisse le manque de précision de ChatGPT dans un divulgation sur son site Web, cela n’a pas empêché les avocats de citer le programme dans des contextes professionnels. Pas plus tard que la semaine dernière, un avocat représentant un homme poursuivant une compagnie aérienne déposé un dossier juridique rempli de ce qu’un juge a qualifié de « fausses décisions judiciaires » fabriquées par le modèle. Maintenant, l’avocat fait face à d’éventuelles sanctions. Bien qu’il s’agisse de l’exemple le plus évident d’une telle surveillance explicite à ce jour, un avocat de la défense pénale du Texas a précédemment déclaré à Gizmodo qu’il ne serait pas surpris s’il y avait d’autres exemples à suivre. Un autre juge, également au Texas, a ordonné la semaine dernière qu’aucun document soumis à son tribunal ne soit rédigé par AI.

Vous voulez en savoir plus sur l’IA, les chatbots et l’avenir de l’apprentissage automatique ? Découvrez notre couverture complète de intelligence artificielleou parcourez nos guides pour Les meilleurs générateurs d’art AI gratuits et Tout ce que nous savons sur le ChatGPT d’OpenAI.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Retour sur le pilote

    Apolline de Malherbe n’a pas pris l’antenne pour le direct