Laminute.info: site d'actualité générale

Cette application est capable de créer de fausses photos de femmes nues

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp

De fausses images de nus de plus de 100 000 femmes ont été créées à partir de photos partagées sur les réseaux sociaux et publiées en ligne.

Les vêtements sont retirés numériquement sur des photos de femmes au moyen de l’intelligence artificielle (IA), et diffusés sur l’application de messagerie Telegram.

Certaines des personnes ciblées « semblaient être mineures », selon le rapport de la société de renseignement Sensity.
Mais les responsables de ce service ont déclaré qu’il s’agissait simplement de « divertissement ».

Sensity affirme que la technologie utilisée est un « deepfake bot ».

Les deepfakes sont des images et des vidéos générées par ordinateur, souvent réalistes, obtenues à partir d’un modèle réel. Ils ont été utilisés entre autres pour créer de faux clips vidéo pornographiques de célébrités.

Mais le directeur général de Sensity, Giorgio Patrini, a déclaré que le passage à l’utilisation de photos de personnes privées est relativement récent.

« Il suffit d’avoir un compte sur les médias sociaux avec des photos publiques pour devenir une cible », a-t-il prévenu.

Bot Telegram

Le bot, qui fonctionne grâce à une intelligence artificielle, vit à l’intérieur d’une chaîne de messagerie privée Telegram. Les utilisateurs peuvent envoyer au bot une photo d’une femme, et le bot enlèvera numériquement ses vêtements en quelques minutes, sans frais.

La BBC a testé plusieurs images, toutes avec le consentement des sujets, et aucune n’était totalement réaliste – nos résultats comprenaient la photo d’une femme avec un nombril sur son diaphragme.

Une application similaire a été arrêtée l’année dernière, mais on pense qu’il existe des versions piratées du logiciel en circulation.

L’administrateur qui gère le service, connu seulement sous le nom de « P » a déclaré :

« Je ne m’en soucie pas tant que ça. C’est un divertissement qui ne comporte pas de violence. Personne ne fera de chantage avec ça, car la qualité est irréaliste. »

Il a également déclaré que l’équipe examine les photos qui sont partagées, et « quand nous voyons des mineurs, nous bloquons l’utilisateur pour de bon ».

Mais la décision de partager ou non la photo avec d’autres personnes revient à celui qui a utilisé le robot pour la créer au départ, a-t-il dit.

Défendant son niveau de nocivité relatif, il a ajouté : « Il y a des guerres, des maladies, beaucoup de choses mauvaises qui sont nocives dans le monde ». Il a également affirmé qu’il supprimera bientôt toutes les images.

Telegram n’a pas répondu à une demande de commentaires.

‘Contenu pédophile’

Sensity a rapporté qu’entre juillet 2019 et 2020, environ 104 852 femmes ont été ciblées et ont eu des images de nudité de faux nus partagées publiquement.

Son enquête a révélé que certaines de ces images semblaient mineures, « suggérant que certains utilisateurs utilisaient principalement le bot pour générer et partager du contenu pédophile ».

Sensity a déclaré que le bot avait fait l’objet d’une publicité importante sur le site russe de médias sociaux VK, et une enquête sur la plateforme a montré que la plupart des utilisateurs étaient de Russie et des pays de l’ex-URSS.

Mais VK a dit : « Il ne tolère pas de tels contenus ou liens sur la plateforme et bloque les communautés qui les distribuent ».

Telegram a été officiellement interdit en Russie jusqu’au début de cette année.

« Beaucoup de ces sites web ou applications ne se cachent pas ou ne fonctionnent pas dans la clandestinité, car ils ne sont pas strictement interdits », a déclaré Giorgio Patrini, de Sensity.

« Jusqu’à ce que cela arrive, j’ai peur que cela ne fasse qu’empirer ».

Les auteurs du rapport affirment qu’ils ont fait part de toutes leurs conclusions à Telegram, VK et aux organismes d’application de la loi concernés, mais n’ont pas reçu de réponse.

Nina Schick, auteur du livre Deep Fakes and the Infocalypse, a déclaré que les créateurs de deepfake étaient partout dans le monde et que les protections juridiques « rattrapaient » la technologie.

« Ce n’est qu’une question de temps avant que ce contenu ne devienne plus sophistiqué ». Le nombre de vidéos pornographiques « deepfake » semble doubler tous les six mois », a-t-elle déclaré.

« Nos systèmes juridiques ne sont pas adaptés à cette question. La société change plus vite que nous ne pouvons l’imaginer en raison de ces progrès technologiques exponentiels, et nous n’avons pas décidé, en tant que société, comment réglementer cela.

« C’est dévastateur, pour les victimes du faux porno. Cela peut complètement bouleverser leur vie parce qu’elles se sentent violées et humiliées ».

L’année dernière, l’État américain de Virginie a été l’un des premiers à interdire les faux.

La loi britannique actuelle sur les fausses images de nu a récemment été critiquée pour son « incohérence, sa désuétude et sa confusion » dans un rapport universitaire.

Malgré les progrès réalisés sur des questions telles que le porno de vengeance et la renaissance de l’image, « il reste de nombreuses lacunes flagrantes dans la loi », déclare Lucy Hadley de l’organisation caritative Women’s Aid.

Si ces statistiques montrent à quel point les images truquées peuvent être répandues, il ne s’agit pas actuellement d’une infraction spécifique.

Le gouvernement a chargé la Commission juridique de revoir la loi sur cette question en Angleterre et au Pays de Galles. Ses conclusions sont attendues en 2021.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Derniers articles

Cinéma

Technologie

Les plus lus