in

La Cour suprême de Facebook reçoit un appel toutes les 24 secondes

Méta Conseil de surveillancel’organe de la Cour suprême formé pour contrôler les décisions de modération de contenu de Facebook et Instagram, a reçu près de 1,3 million d’appels contre les décisions du géant de la technologie l’année dernière. Ce chiffre gigantesque équivaut à un appel toutes les 24 secondes, 3 537 cas par jour. La grande majorité de ces appels concernaient des violations alléguées de seulement deux des Normes communautaires de Meta: violence/incitation et discours de haine.

Les chiffres d’appel font partie de te rapport annuel 2022 du Conseil de surveillance, partagé avec Gizmodo mardi. Les utilisateurs de Facebook et d’Instagram ont fait appel de la décision de Meta de supprimer leur contenu 1 290 942 fois, ce qui, selon le Conseil de surveillance, marque une augmentation de 25 % du nombre d’appels par rapport à l’année précédente. Les deux tiers de ces appels concernaient des allégations de violence/d’incitation et de discours de haine. Le tableau ci-dessous montre le pourcentage estimé d’appels reçus par le Conseil de surveillance, ventilés par type de contenu en infraction, depuis qu’il a commencé à recevoir des soumissions fin 2020. Bien que les appels pour discours de haine aient diminué, les appels liés à la violence/l’incitation ont monté en flèche ces années.

Capture d’écran: Conseil de surveillance

La plus grande partie de ces appels (45%) provenait des États-Unis et du Canada, qui comptent certaines des plus grandes bases d’utilisateurs Facebook et Instagram au monde. Les utilisateurs américains et canadiens sont également sur Facebook et Instagram depuis relativement longtemps. La grande majorité des appels (92 %) impliquaient des utilisateurs demandant la restauration de leur compte ou de leur contenu, contre une part beaucoup plus faible (8 %) qui demandaient la suppression de certains contenus.

« En faisant publiquement ces recommandations et en surveillant publiquement les réponses et la mise en œuvre de Meta, nous avons ouvert un espace de dialogue transparent avec l’entreprise qui n’existait pas auparavant », a déclaré le conseil de surveillance.

Le conseil de surveillance a annulé la décision de Meta dans 75 % des décisions sur les affaires

Bien qu’il ait reçu plus d’un million d’appels l’année dernière, le Conseil de surveillance ne rend des décisions contraignantes que dans une petite poignée d’affaires très médiatisées. De celles 12 décisions publiées en 2022, le conseil de surveillance a annulé la décision initiale de modération du contenu de Meta 75 % du temps, selon son rapport. Dans 32 autres cas à examiner, Meta a déterminé que sa propre décision initiale était incorrecte. 50 cas au total à examiner peuvent ne pas sembler beaucoup par rapport à des millions d’appels, mais le Conseil de surveillance dit qu’il essaie de compenser cette disparité en sélectionnant délibérément des cas qui « soulèvent des problèmes sous-jacents auxquels sont confrontés un grand nombre d’utilisateurs dans le monde ». En d’autres termes, ces quelques cas devraient, en théorie, résoudre des problèmes de modération plus importants qui envahissent les réseaux sociaux de Meta.

Les neuf décisions de modération de contenu que le Conseil de surveillance a annulées en 2022 couvraient toute la gamme en termes de sujet. Dans un cas, le conseil d’administration a réprimandé une décision de Meta de supprimer les messages d’un utilisateur de Facebook demandant des conseils sur comment parler à un médecin d’Adderall. Un autre cas plus récent a vu le Conseil de surveillance annuler la décision de Meta de supprimer une publication sur Facebook qui comparait l’armée russe en Ukraine aux nazis. Le message controversé comprenait notamment un poème appelant au meurtre de fascistes ainsi qu’une image d’un cadavre apparent. Dans ces cas, Meta est tenu d’honorer la décision du conseil d’administration et de mettre en œuvre les changements de modération dans les sept jours suivant la publication de la décision.

En plus d’annuler les décisions de modération, le Conseil de surveillance passe également une grande partie de son temps à jouer le rôle moins voyant mais potentiellement tout aussi important d’émettre des recommandations politiques. Ces recommandations peuvent modifier la façon dont Meta interprète et applique les actions de modération de contenu pour ses milliards d’utilisateurs. En 2022, le Conseil de surveillance a émis 91 recommandations politiques. Beaucoup d’entre eux, d’une manière ou d’une autre, ont fait appel à Meta pour accroître la transparence lorsqu’il s’agit d’informer les utilisateurs des raisons pour lesquelles leur contenu a été supprimé. Trop souvent, note le Conseil de surveillance dans le rapport, les utilisateurs « devinent » pourquoi certains contenus ont été supprimés.

En réponse à ces recommandations de transparence, Meta aurait adopté de nouveaux messages indiquant aux gens quelles politiques spécifiques ils ont violées si les violations impliquent des discours de haine, des organisations dangereuses, des brimades ou du harcèlement. Meta indiquera également aux utilisateurs si la décision de supprimer leur contenu est prise par un humain ou un système automatisé. L’entreprise a modifié son système de grève pour répondre aux plaintes des utilisateurs selon lesquelles ils étaient avoir injustement leurs comptes verrouillés dans Facebook Jail.

Meta a également modifié sa manière de gérer les crises et les conflits en raison de la pression du Conseil de surveillance. La société a développé un nouveau Protocole de politique de crise qu’il a utilisé pour évaluer le risque possible de préjudice associé à rétablir le compte de l’ancien président Donald Trump. Alors que certains défenseurs du discours comme l’ACLU ont salué la décision de Meta de réintégrer Trump, d’autres groupes de défense des droits comme le Projet mondial contre la haine et l’extrémisme et Media Matters ont déclaré que c’était prématuré. De même, Meta a également revu ses politiques concernant les individus et les organisations dangereux pour qu’elles soient davantage basées sur les risques. Désormais, les groupes ou les individus jugés les plus dangereux sont prioritaires pour les actions d’application sur la plateforme.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Pirates des Caraïbes est la priorité de Disney, avec ou sans Johnny Depp

    Apple dévoile une nouvelle fonctionnalité révolutionnaire