in

Microsoft nomme les développeurs qu'il a poursuivi pour abuser de ses outils AI

Microsoft nomme les développeurs qu'il a poursuivi pour abuser de ses outils AI

Microsoft essaie de montrer son engagement envers la sécurité de l'IA en modifiant une action en justice déposée l'année dernière pour démasquer les quatre développeurs qu'il allègue des garde-corps a échappé sur ses outils d'IA afin de générer des fesses de célébrités. La Société a intenté une action en justice en décembre et une ordonnance du tribunal permettant à Microsoft de saisir un site Web associé à l'opération, l'aide à identifier les individus.

Les quatre développeurs feraient partie d'un réseau mondial de cybercriminalité appelée Storm-2139: Arian Yadegarnia aka «Fiz» d'Iran; Alan Krysiak alias «Drago» du Royaume-Uni; Ricky Yuen aka «cg-dot» de Hong Kong et Phát phùng tấn aka «Asakuri» du Vietnam.

Microsoft dit qu'il y en a d'autres qu'il a identifiés comme impliqués dans le schéma, mais ne veut pas encore les nommer afin de ne pas interférer avec une enquête en cours. Selon Microsoft, le groupe a compromis les comptes avec accès à ses outils d'IA génératifs et a réussi à les «jailbreaker» afin de créer les types d'images qu'ils souhaitaient. Le groupe a ensuite vendu l'accès à d'autres, qui l'ont utilisé pour créer des nus profonds de célébrités, entre autres abus.

A Lire aussi  Apple publie une mise à jour de sécurité d'urgence pour iPhone et Mac

Après avoir déposé le procès et saisi le site Web du groupe, Microsoft a déclaré que les défendeurs étaient passés en mode panique. « La saisie de ce site Web et le décevoir ultérieur des dépôts juridiques en janvier ont généré une réaction immédiate des acteurs, dans certains cas, les membres du groupe s'allument et se pointent les uns contre les autres », a-t-il déclaré sur son blog.

Des célébrités, dont Taylor Swift, ont été des cibles fréquentes de la pornographie profonde, qui prend le visage d'une vraie personne et la superpose de manière convaincante à un corps nu. En janvier 2024, Microsoft a dû mettre à jour ses modèles de texte à l'image après que de fausses images de Swift sont apparues sur le Web. L'IA générative rend incroyablement facile de créer les images avec peu de capacité technique, ce qui a déjà conduit à une épidémie d'écoles secondaires aux États-Unis qui connaissent des scandales DeepFake. Des histoires récentes des victimes de Foasfakes illustrent comment la création des images n'est pas un acte sans victime car il se produit numériquement, mais se traduit par un préjudice réel en faisant de la des cibles anxieuses, effrayées et violées en sachant que quelqu'un là-bas est suffisamment obsédé par eux pour le faire.

A Lire aussi  conséquences et risques pour une population peu immunisée

Il y a eu un débat en cours dans la communauté de l'IA concernant le sujet de la sécurité et si les préoccupations sont réelles ou plutôt destinées à aider les acteurs majeurs comme Openai à gagner de l'influence et à vendre leurs produits en exagérant le véritable pouvoir de l'intelligence artificielle générative. Un camp a fait valoir que la maintenance des modèles d'IA peut aider à prévenir les pires abus en limitant la capacité des utilisateurs à désactiver les contrôles de sécurité; Ceux du camp open-source croient que la création de modèles à modifier et à améliorer est nécessaire pour accélérer le secteur, et il est possible de traiter les abus sans entraver l'innovation. Quoi qu'il en soit, tout cela ressemble à une distraction de la menace la plus immédiate, à savoir que l'IA a rempli le Web d'informations inexactes et de contenu de slobe.

A Lire aussi  Un éclairage immersif qui regarde votre téléviseur avec vous

Bien que beaucoup de craintes concernant l'IA se sentent sur nature excessive et hypothétique, et il semble peu probable que l'IA génératrice soit presque assez bonne pour prendre ses propres agences, la mauvaise utilisation de l'IA pour créer des fesses profondes est réelle. Les moyens juridiques sont une façon dont ces abus peuvent être traités aujourd'hui. Il y a déjà eu une série d'arrestations à travers les États-Unis des personnes qui ont utilisé l'IA pour générer des fesses profondes de mineurs, et la loi No Fakes introduite au Congrès l'année dernière en ferait un crime pour générer des images en fonction de la ressemblance de quelqu'un. Le Royaume-Uni pénalise déjà la distribution du porno Deepfake, et bientôt ce sera également un crime de le produire. L'Australie a récemment criminalisé la création et le partage de profondeurs non consensuelles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

Le Canada annonce des changements majeurs pour expliquer les tirages spécifiques à l'occupation d'entrée

Le Canada annonce des changements majeurs pour expliquer les tirages spécifiques à l'occupation d'entrée

Luka Doncic et LeBron James, c’est déjà la folie à Los Angeles !

Luka Doncic et LeBron James, c’est déjà la folie à Los Angeles !