La communauté des bénévoles a vivement rejeté une proposition de synthèses automatisées, obligeant la Fondation Wikimedia à suspendre son projet expérimental.
C’était une annonce qui sentait le sapin dès le départ. La Fondation Wikimedia, qui chapeaute Wikipédia, a essuyé une tempête de critiques après avoir évoqué l’introduction de résumés d’articles générés par intelligence artificielle. Face à la bronca des contributeurs historiques, l’organisation a dû mettre en pause son initiative – preuve que le sujet de l’IA générative reste un champ de mines, même pour les géants du savoir en ligne.
Une expérimentation qui passe mal
Le projet, présenté comme un moyen de « rendre les articles complexes plus accessibles », devait s’appuyer sur un modèle linguistique open-source (Aya, développé par Cohere). Objectif affiché : aider les lecteurs moins aguerris à saisir l’essentiel d’un sujet. Mais pour les wikipédiens, habitués à défendre une encyclopédie écrite par des humains, pour des humains, la pilule est immédiatement passée de travers.
Sur les forums dédiés, les réactions ont fusé, sans la moindre ambiguïté. « Sérieusement ? Non. Absolument pas. Sous aucune forme. Sur aucun appareil », tonne un contributeur. « Les gens ne liront pas au-delà de ces conneries générées par IA pour voir ce qu’on a vraiment écrit », renchérit un autre. Certains y voient même une menace existentielle : « Vous voulez tuer Wikipédia ? Parce que c’est un bon moyen d’y arriver ».
La Fondation contrainte de reculer
Sous cette pression, la Fondation a annoncé un gel temporaire du dispositif, confirmé à 404 Media. « Cette expérience de deux semaines, facultative, visait à évaluer l’intérêt pour ce type de fonctionnalité », précise un porte-parole, insistant sur le rôle central des modérateurs humains. Peine perdue : le mal était fait.
Derrière cette levée de boucliers, c’est tout le rapport entre IA et fiabilité qui est en jeu. Les contributeurs redoutent une érosion de la crédibilité de Wikipédia, déjà régulièrement accusée de lacunes ou de biais. « Ça achèvera notre réputation de rigueur », prévient l’un d’eux. Un autre ironise : « Les employés de la Fondation qui veulent gonfler leur CV avec des projets IA feraient mieux de postuler ailleurs ».
La fracture entre la base et l’institution
L’épisode révèle aussi les tensions récurrentes entre la Fondation – structure salariée – et la communauté bénévole, gardienne farouche de l’esprit collaboratif originel. « Comme d’habitude, nos avis comptent peu face aux décisions déjà actées », déplore un éditeur, sceptique sur la sincérité des « consultations ».
Preuve que dans l’univers du crowdsourcing, l’automatisation à outrance reste un tabou. Même ChatGPT n’aurait pas osé imaginer un scénario aussi clivant.



GIPHY App Key not set. Please check settings