Google a mis à jour sa politique de confidentialité au cours du week-end, indiquant explicitement que l’entreprise se réserve le droit de supprimer à peu près tout ce que vous publiez en ligne pour créer ses outils d’IA. Si Google peut lire vos mots, supposez qu’ils appartiennent maintenant à l’entreprise et attendez-vous à ce qu’ils se nichent quelque part dans les entrailles d’un chatbot.
« Google utilise les informations pour améliorer nos services et développer de nouveaux produits, fonctionnalités et technologies qui profitent à nos utilisateurs et au public », la nouvelle politique de Google dit. « Par exemple, nous utilisons des informations accessibles au public pour aider à former les modèles d’IA de Google et à créer des produits et des fonctionnalités telles que les capacités de Google Translate, Bard et Cloud AI. »
Heureusement pour les fans d’histoire, Google maintient un historique des changements à ses conditions de service. Le nouveau langage modifie une politique existante, énonçant de nouvelles façons dont vos réflexions en ligne pourraient être utilisées pour le travail des outils d’IA du géant de la technologie.
Auparavant, Google avait déclaré que les données seraient utilisées «pour les modèles de langage» plutôt que pour les «modèles d’IA», et là où l’ancienne politique vient de mentionner Google Translate, Bard et Cloud AI font maintenant leur apparition.
Il s’agit d’une clause inhabituelle pour une politique de confidentialité. Généralement, ces politiques décrivent la manière dont une entreprise utilise les informations que vous publiez sur les propres services de l’entreprise. Ici, il semble que Google se réserve le droit de récolter et d’exploiter les données publiées sur n’importe quelle partie du Web public, comme si l’ensemble d’Internet était le terrain de jeu de l’IA pour l’entreprise. Google n’a pas immédiatement répondu à une demande de commentaire.
Cette pratique soulève de nouvelles et intéressantes questions de confidentialité. Les gens comprennent généralement que les messages publics sont publics. Mais aujourd’hui, vous avez besoin d’un nouveau modèle mental de ce que signifie écrire quelque chose en ligne. Il ne s’agit plus de savoir qui peut voir l’information, mais comment elle pourrait être utilisée. Il y a de fortes chances que Bard et ChatGPT aient ingéré vos articles de blog oubliés depuis longtemps ou vos critiques de restaurants vieilles de 15 ans. Pendant que vous lisez ceci, les chatbots pourraient régurgiter une version humonculoïde de vos mots d’une manière impossible à prévoir et difficile à comprendre.
L’une des complications les moins évidentes du monde post-ChatGPT est la question de savoir où les chatbots avides de données ont puisé leurs informations. Des entreprises telles que Google et OpenAI a gratté de vastes portions d’Internet pour alimenter leurs habitudes robotiques. Ce n’est pas du tout clair que ce soit légal, et les prochaines années verront les tribunaux se débattre avec des questions de droit d’auteur qui auraient semblé relever de la science-fiction il y a quelques années. En attendant, le phénomène affecte déjà les consommateurs de manière inattendue.
Les seigneurs de Twitter et de Reddit se sentent particulièrement lésés par le problème de l’IA et ont apporté des modifications controversées pour verrouiller leurs plateformes. Les deux sociétés ont désactivé l’accès gratuit à leurs API, ce qui permettait à quiconque le souhaitait de télécharger de grandes quantités de messages. Apparemment, cela vise à protéger les sites de médias sociaux des autres entreprises qui exploitent leur propriété intellectuelle, mais cela a eu d’autres conséquences.
Gazouillement et Les modifications de l’API de Reddit ont cassé les outils tiers que de nombreuses personnes utilisaient pour accéder à ces sites. Pendant une minute, il a même semblé que Twitter allait obliger les entités publiques tels que la météo, les transports en commun et les services d’urgence à payer s’ils voulaient tweeter, une décision que l’entreprise a reculée après une tempête de critiques.
Dernièrement, le web scraping est le boogieman préféré d’Elon Musk. Musk a imputé un certain nombre de catastrophes récentes sur Twitter au besoin de l’entreprise d’empêcher les autres de retirer des données de son site, même lorsque les problèmes ne semblent pas liés. Pendant le weekend, Twitter a limité le nombre de tweets les utilisateurs étaient autorisés à regarder par jour, rendant le service presque inutilisable. Musk a déclaré qu’il s’agissait d’une réponse nécessaire au « grattage des données » et à la « manipulation du système ». Cependant, la plupart des experts informatiques ont convenu que la limitation du débit était plus probablement une réponse de crise à des problèmes techniques nés d’une mauvaise gestion, d’une incompétence ou des deux. Twitter n’a pas répondu aux questions de Gizmodo sur le sujet.
Sur Reddit, l’effet des changements d’API était particulièrement bruyant. Reddit est essentiellement géré par des modérateurs non rémunérés qui maintiennent les forums en bonne santé. Les mods de grands subreddits ont tendance à s’appuyer sur des outils tiers pour leur travail, des outils qui sont construits sur des API désormais inaccessibles. Ce a déclenché une manifestation de masse, où les modérateurs ont essentiellement fermé Reddit. Bien que la controverse soit toujours d’actualité, il est probable qu’elle ait conséquences permanentes alors que les modérateurs éconduits raccrochent leur chapeau.
GIPHY App Key not set. Please check settings