in

L’ancien responsable de la sécurité de Google, Arjun Narayan, discute des actualités écrites par l’IA

En quelques mois, l’idée d’articles de presse convaincants entièrement écrits par ordinateur est passée d’une absurdité perçue à une réalité déroute déjà certains lecteurs. Maintenant, les écrivains, les éditeurs et créateurs de politiques se bousculent pour développer des normes afin de maintenir la confiance dans un monde où les textes générés par l’IA apparaîtront de plus en plus dispersés dans les flux d’actualités.

Des publications technologiques majeures comme CNET ont déjà été pris avec leur main dans la boîte à biscuits de l’IA générative et ont dû apporter des corrections à des articles rédigés par des chatbots de type ChatGPT, sujets à des erreurs factuelles. D’autres institutions traditionnelles, comme Insider, explorent l’utilisation de l’IA dans les articles de presse avec beaucoup plus de retenue, pour l’instant du moins. À l’extrémité la plus dystopique du spectre, la mauvaise qualité les fermes de contenu utilisent déjà des chatbots pour produire des actualités, dont certains contiennent des faussetés factuelles potentiellement dangereuses. Ces efforts sont certes rudimentaires, mais cela pourrait rapidement changer à mesure que la technologie mûrit.

Les problèmes de transparence et de responsabilité de l’IA sont parmi les défis les plus difficiles qui occupent l’esprit d’Arjun Narayan, responsable de la confiance et de la sécurité pour SmartNews, une application de découverte d’actualités disponible dans plus de 150 pays qui utilise un algorithme de recommandation personnalisé avec un objectif déclaré de « fournir des informations de qualité mondiale aux personnes qui en ont besoin ». Avant SmartNews, Narayan a travaillé comme responsable de la confiance et de la sécurité chez ByteDance et Google. À certains égards, les défis apparemment soudains posés par les générateurs d’informations sur l’IA résultent aujourd’hui d’une accumulation progressive d’algorithmes de recommandation et d’autres produits d’IA que Narayan a aidé à superviser pendant plus de vingt ans. Narayan s’est entretenu avec Gizmodo de la complexité du moment actuel, de la manière dont les organes de presse devraient aborder le contenu de l’IA de manière à renforcer et à nourrir la confiance des lecteurs, et à quoi s’attendre dans l’avenir proche incertain de l’IA générative.

Cette interview a été modifiée pour plus de longueur et de clarté.

Selon vous, quels sont les plus grands défis imprévus posés par l’IA générative du point de vue de la confiance et de la sécurité ?

Il y a quelques risques. Le premier consiste à s’assurer que les systèmes d’IA sont formés correctement et formés avec la bonne vérité terrain. Il est plus difficile pour nous de revenir en arrière et d’essayer de comprendre pourquoi certaines décisions ont été rendues comme elles l’ont fait. Il est extrêmement important de calibrer et de conserver avec soin tout point de données utilisé pour entraîner le système d’IA.

Lorsqu’une IA prend une décision, vous pouvez lui attribuer une certaine logique, mais dans la plupart des cas, c’est un peu une boîte noire. Il est important de reconnaître que l’IA peut proposer des choses et inventer des choses qui ne sont pas vraies ou qui n’existent même pas. Le terme de l’industrie est « hallucination ». La bonne chose à faire est de dire : « hé, je n’ai pas assez de données, je ne sais pas ».

Ensuite, il y a les implications pour la société. À mesure que l’IA générative sera déployée dans davantage de secteurs industriels, il y aura des perturbations. Nous devons nous demander si nous avons le bon ordre social et économique pour faire face à ce type de rupture technologique. Qu’arrive-t-il aux personnes déplacées et sans emploi? Ce qui pourrait prendre encore 30 ou 40 ans avant que les choses ne se généralisent, c’est maintenant cinq ou dix ans. Cela ne laisse donc pas beaucoup de temps aux gouvernements ou aux régulateurs pour s’y préparer. Ou pour que les décideurs aient des garde-corps en place. Ce sont des choses auxquelles les gouvernements et la société civile doivent tous réfléchir.

Quels sont certains des dangers ou des défis que vous voyez avec les efforts récents des organes de presse pour générer du contenu à l’aide de l’IA ?

Il est important de comprendre qu’il peut être difficile de détecter quelles histoires sont entièrement écrites par l’IA et lesquelles ne le sont pas. Cette distinction s’estompe. Si je forme un modèle d’IA pour apprendre comment Mack écrit son éditorial, peut-être que le prochain généré par l’IA sera tout à fait dans le style de Mack. Je ne pense pas que nous en soyons encore là, mais cela pourrait très bien être l’avenir. Il y a donc une question d’éthique journalistique. Est-ce juste? Qui a ce droit d’auteur, qui possède cette propriété intellectuelle ?

Nous devons avoir une sorte de premiers principes. Personnellement, je pense qu’il n’y a rien de mal à ce que l’IA génère un article, mais il est important d’être transparent pour l’utilisateur que ce contenu a été généré par l’IA. Il est important pour nous d’indiquer soit dans une signature, soit dans une divulgation que le contenu a été partiellement ou entièrement généré par l’IA. Tant qu’il respecte votre norme de qualité ou votre norme éditoriale, pourquoi pas ?

Un autre premier principe : il y a de nombreuses fois où l’IA hallucine ou lorsque le contenu qui sort peut avoir des inexactitudes factuelles. Je pense qu’il est important pour les médias et les publications ou même les agrégateurs de nouvelles de comprendre que vous avez besoin d’une équipe éditoriale ou d’une équipe de normalisation ou comme vous voulez l’appeler qui relit tout ce qui sort de ce système d’IA. Vérifiez-le pour l’exactitude, vérifiez-le pour les tendances politiques. Il a encore besoin d’une surveillance humaine. Il a besoin de vérification et de conservation pour les normes et les valeurs éditoriales. Tant que ces premiers principes sont respectés, je pense que nous avons une voie à suivre.

Que faites-vous cependant lorsqu’une IA génère une histoire et injecte une opinion ou des analyses ? Comment un lecteur discernerait-il d’où vient cette opinion si vous ne pouvez pas retracer les informations d’un ensemble de données ?

Généralement, si vous êtes l’auteur humain et qu’une IA écrit l’histoire, l’humain est toujours considéré comme l’auteur. Pensez-y comme une chaîne de montage. Il y a donc une chaîne de montage Toyota où des robots assemblent une voiture. Si le produit final a un airbag défectueux ou a un volant défectueux, Toyota en assume toujours la propriété, indépendamment du fait qu’un robot a fabriqué cet airbag. En ce qui concerne le résultat final, c’est la publication d’information qui est responsable. Vous y mettez votre nom. Donc, quand il s’agit de paternité ou d’orientation politique, quelle que soit l’opinion que le modèle d’IA vous donne, vous l’approuvez toujours.

Nous sommes encore tôt ici mais il y a déjà rapports de fermes de contenu utilisant des modèles d’IA, souvent très paresseusement, pour produire du contenu de mauvaise qualité, voire trompeur, afin de générer des revenus publicitaires. Même si certaines publications acceptent d’être transparentes, existe-t-il un risque que de telles actions réduisent inévitablement la confiance dans l’information en général ?

Au fur et à mesure que l’IA progresse, il existe certaines façons de détecter si quelque chose a été écrit par l’IA ou non, mais c’est encore très naissant. Ce n’est pas très précis et ce n’est pas très efficace. C’est là que l’industrie de la confiance et de la sécurité doit rattraper son retard sur la façon dont nous détectons les médias synthétiques par rapport aux médias non synthétiques. Pour les vidéos, il existe plusieurs façons de détecter les deepfakes, mais les degrés de précision diffèrent. Je pense que la technologie de détection va probablement rattraper son retard à mesure que l’IA progressera, mais c’est un domaine qui nécessite plus d’investissements et plus d’exploration.

Pensez-vous que l’accélération de l’IA pourrait encourager les entreprises de médias sociaux à s’appuyer encore plus sur l’IA pour la modération de contenu ? Y aura-t-il toujours un rôle pour le modérateur de contenu humain à l’avenir ?

Pour chaque problème, comme le discours de haine, la désinformation ou le harcèlement, nous avons généralement des modèles qui fonctionnent main dans la main avec des modérateurs humains. Il y a un degré élevé de précision pour certains des domaines problématiques les plus matures ; le discours de haine dans le texte, par exemple. Dans une certaine mesure, l’IA est capable de saisir cela au fur et à mesure qu’il est publié ou que quelqu’un le tape.

Ce degré de précision n’est cependant pas le même pour tous les domaines. Nous pourrions donc avoir un modèle assez mature pour le discours de haine puisqu’il existe depuis 100 ans, mais peut-être que pour la désinformation sur la santé ou la désinformation sur Covid, il faudra peut-être plus de formation sur l’IA. Pour l’instant, je peux dire en toute sécurité que nous aurons encore besoin de beaucoup de contexte humain. Les modèles ne sont pas encore là. Ce seront toujours des humains dans la boucle et ce sera toujours un continuum d’apprentissage humain-machine dans l’espace de confiance et de sécurité. La technologie est toujours en train de rattraper les acteurs de la menace.

Que pensez-vous des grandes entreprises technologiques qui ont licencié une partie importante de leurs équipes de confiance et de sécurité ces derniers mois sous prétexte qu’elles étaient inutiles ?

Ça me concerne. Pas seulement la confiance et la sécurité, mais aussi les équipes d’éthique de l’IA. J’ai l’impression que les entreprises technologiques sont des cercles concentriques. L’ingénierie est le cercle le plus interne alors que le recrutement des RH, l’éthique de l’IA, la confiance et la sécurité sont tous les cercles extérieurs et lâchent prise. Alors que nous désinvestissons, attendons-nous que la merde frappe le ventilateur ? Serait-il alors trop tard pour réinvestir ou corriger son cap ?

Je suis heureux d’avoir tort, mais je suis généralement inquiet. Nous avons besoin de plus de personnes qui réfléchissent à ces étapes et lui donnent l’espace de tête dédié pour atténuer les risques. Sinon, la société telle que nous la connaissons, le monde libre tel que nous le connaissons, va courir un risque considérable. Je pense qu’il faut honnêtement investir davantage dans la confiance et la sécurité.

Geoffrey Hinton que certains ont appelé le Parrain de l’IA, a depuis fait son coming-out et déclaré publiquement qu’il regrettait son travail sur l’IA et craignait que nous approchions rapidement d’une période où il est difficile de discerner ce qui est vrai sur Internet. Que pensez-vous de ses commentaires ?

Il (Hinton) est une légende dans cet espace. Si quelqu’un, il saurait ce qu’il dit. Mais ce qu’il dit sonne vrai.

Quels sont certains des cas d’utilisation les plus prometteurs de la technologie qui vous passionnent ?

J’ai perdu mon père récemment à cause de la maladie de Parkinson. Il s’est battu avec elle pendant 13 ans. Quand je regarde les maladies de Parkinson et d’Alzheimer, beaucoup de ces maladies ne sont pas nouvelles, mais il n’y a pas assez de recherche et d’investissements dans ces domaines. Imaginez si l’IA faisait cette recherche à la place d’un chercheur humain ou si l’IA pouvait aider à faire avancer certaines de nos réflexions. Ne serait-ce pas fantastique ? J’ai l’impression que c’est là que la technologie peut faire une énorme différence pour améliorer nos vies.

Il y a quelques années, il y avait une déclaration universelle selon laquelle nous ne clonerions pas d’organes humains même si la technologie était là. Il y a une raison à cela. Si cette technologie devait se présenter, elle soulèverait toutes sortes de préoccupations éthiques. Vous auriez des pays du tiers-monde prélevés pour des organes humains. Je pense donc qu’il est extrêmement important que les décideurs politiques réfléchissent à la manière dont cette technologie peut être utilisée, aux secteurs qui devraient la déployer et aux secteurs qui devraient être hors de portée. Ce n’est pas aux entreprises privées de décider. C’est là que les gouvernements devraient réfléchir.

Que vous soyez optimiste ou pessimiste, que pensez-vous du paysage actuel de l’IA ?

Je suis une personne à moitié plein. Je me sens optimiste, mais laissez-moi vous dire ceci. J’ai une fille de sept ans et je me demande souvent quel genre de travail elle va faire. Dans 20 ans, les métiers, tels que nous les connaissons aujourd’hui, vont fondamentalement changer. Nous entrons dans un territoire inconnu. Je suis également excité et prudemment optimiste.

Vous voulez en savoir plus sur l’IA, les chatbots et l’avenir de l’apprentissage automatique ? Découvrez notre couverture complète de intelligence artificielleou parcourez nos guides pour Les meilleurs générateurs d’art AI gratuits et Tout ce que nous savons sur le ChatGPT d’OpenAI.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Le gouvernement espagnol appelle à des sondages instantanés après de lourdes pertes aux élections locales

    Pourquoi votre chien vomit-il jaune ? Découvrez les causes possibles