Laminute.info: site d'actualité générale

Les articles écrits par l’IA de CNET sont truffés d’erreurs

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Les articles écrits par l'IA de CNET sont truffés d'erreurs

En plus d’enchaîner des phrases en anglais fluides et humaines, l’un des ChatGPT plus grands ensembles de compétences semble se tromper. Dans le but de générer des paragraphes passables, le programme AI fabrique des informations et faits bâclés comme l’affaire de personne. Malheureusement, le point de vente technologique CNET a décidé d’en faire son affaire.

Le site de médias technologiques a été contraint de publier plusieurs corrections majeures à un article publié sur CNET, créé via ChatGPT, comme signalé pour la première fois par le futurisme. En un seul Explicateur écrit par l’IA sur les intérêts composés, il y avait au moins cinq inexactitudes importantes, qui ont maintenant été corrigées. Les erreurs étaient les suivantes, selon la lourde correction de CNET :

  • L’article impliquait qu’un compte d’épargne contenant initialement 10 000 $ avec un taux d’intérêt de 3 %, composé annuellement, rapporterait 10 300 $ d’intérêts après un an. L’intérêt réel gagné s’élèverait à 300 $.
  • Une erreur similaire à celle ci-dessus est apparue dans un deuxième exemple, basé sur le premier.
  • Le message indiquait à tort que l’intérêt des comptes CD d’un an ne s’accumulait qu’une fois par an. En réalité : les comptes CD s’accumulent à des fréquences variables.
  • L’article indiquait de manière erronée le montant qu’une personne devrait payer pour un prêt automobile avec un taux d’intérêt de 4 % sur cinq ans.
  • Le message d’origine confondait incorrectement APR et APY et offrait de mauvais conseils en conséquence.

Depuis plus de deux mois, CNET est pompage des postes généré par ChatGPT. Le site a publié 78 de ces articles au total, et jusqu’à 12 en une seule journée (au 11 novembre 2022), à l’origine sous la signature « CNET Money Staff », et maintenant juste « CNET Money ». Au départ, le point de vente semblait désireux de voir sa paternité d’IA voler sous le radar, révélant l’absence d’un écrivain humain uniquement dans une description obscure sur la page « auteur » du robot. Puis, Futurisme et d’autres médias se sont fait remarquer. La critique a suivi. La rédactrice en chef de CNET, Connie Guglielmo, a écrit une déclaration à propos de ça.

Et tout comme la reconnaissance publique par le point de vente de son utilisation de l’IA n’a fait que suivre de nombreuses critiques, CNET n’a pas identifié ni cherché à corriger toutes ces inexactitudes notées mardi, tout seul. La correction du média n’est intervenue qu’après que Futurism a directement alerté CNET de certaines des erreurs, a rapporté Futurism.

Crumpe a réclamé que tous ses articles générés par l’IA sont « examinés, vérifiés et édités » par de vrais employés humains. Et chaque article est associé au nom d’un éditeur dans la signature. Mais clairement, cette prétendue surveillance n’est pas suffisante pour arrêter ChatGPT de nombreuses erreurs générées de glisser entre les mailles du filet.

Habituellement, lorsqu’un éditeur aborde un article (en particulier un explicateur aussi basique que « Qu’est-ce que l’intérêt composé »), il est prudent de supposer que l’auteur a fait de son mieux pour fournir des informations précises. Mais avec l’IA, il n’y a pas d’intention, seulement le produit. Un éditeur évaluant un texte généré par l’IA ne peut rien présumer et doit plutôt porter un regard critique et rigoureux sur chaque phrase, monde et signe de ponctuation. C’est un type de tâche différent de l’édition d’une personne, et une personne peut ne pas être bien équipée pour, compte tenu du degré d’attention complète et sans faille qu’elle doit prendre et du volume élevé que CNET semble viser avec ses histoires produites par ChatGPT.

Il est facile de comprendre (mais pas excusable) qu’en parcourant des piles de messages générés par l’IA, un éditeur puisse manquer une erreur sur la nature des taux d’intérêt parmi la série de déclarations faisant autorité. Lorsque l’écriture est sous-traitée à l’IA, les éditeurs finissent par porter le fardeau, et leur échec semble inévitable.

Et les échecs ne se limitent certainement pas à un seul article. Presque tous les articles écrits par l’IA de CNET sont désormais accompagnés d’une « note de l’éditeur » en haut qui dit : « Nous examinons actuellement cette histoire pour en vérifier l’exactitude. Si nous trouvons des erreurs, nous mettrons à jour et publierons des corrections », indiquant que le point de vente a réalisé l’insuffisance de son processus initial d’édition.

Gizmodo a contacté Crumpe pour plus de précisions sur ce que signifie ce processus de révision secondaire par e-mail. (Chaque histoire sera-t-elle relue pour en vérifier l’exactitude par le même éditeur ? Un éditeur différent ? Un vérificateur des faits de l’IA ?) Cependant, Crumpe n’a pas directement répondu à mes questions. Au lieu de cela, Ivey Oneal, le responsable des relations publiques du point de vente, a renvoyé Gizmodo à la déclaration précédente de Guglielmo et a écrit : « Nous examinons activement toutes nos pièces assistées par l’IA pour nous assurer qu’aucune autre inexactitude n’a traversé le processus d’édition. Nous continuerons à publier toutes les corrections nécessaires conformément à la politique de correction de CNET.

Compte tenu de la forte probabilité apparente d’erreurs générées par l’IA, on peut se demander pourquoi CNET se détourne des humains vers les robots. D’autres organes de presse, comme le Presse associée, utilisent également l’intelligence artificielle, mais uniquement dans des contextes très limités, comme le remplissage d’informations dans des modèles prédéfinis. Et dans ces cadres plus étroits, l’utilisation de l’IA semble destinée à libérer les journalistes pour faire d’autres travaux, plus dignes de leur temps. Mais l’application de la technologie par CNET est clairement différente dans sa portée et son intention.

Tous les articles publiés sous la signature « CNET Money » sont des explicatifs très généraux avec des questions en langage clair comme titres. Ils sont clairement optimisés pour tirer parti des algorithmes de recherche de Google et se retrouver en haut des pages de résultats des internautes, noyant le contenu existant et capturer des clics. CNET, comme Gizmodo et de nombreux autres sites de médias numériques, tire des revenus des publicités sur ses pages. Plus il y a de clics, plus un annonceur paie pour son ou ses panneaux d’affichage numériques miniatures.

D’un point de vue financier, vous ne pouvez pas battre l’IA : il n’y a pas de frais généraux et il n’y a pas de limite humaine à ce qui peut être produit en une journée. Mais d’un point de vue journalistique, la génération d’IA est une crise imminente, dans laquelle la précision devient entièrement secondaire par rapport au référencement et au volume. Les revenus basés sur les clics n’incitent pas à des rapports approfondis ou à des explications bien formulées. Et dans un monde où les AI-posts deviennent une norme acceptée, l’ordinateur ne saura que se récompenser.

Mise à jour du 17/01/2023, 17h05 HE : Ce message a été mis à jour avec le commentaire de CNET.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Derniers articles

Cinéma

Technologie

Les plus lus