in

Le tribunal interdit l'utilisation de preuves vidéo « améliorées par l'IA », car ce n'est pas ainsi que fonctionne l'IA

Un juge de l’État de Washington a empêché la présentation de preuves vidéo « améliorées par l’IA » dans le cadre d’un procès pour triple meurtre. Et c'est une bonne chose, étant donné que trop de gens semblent penser à appliquer un Filtre IA peut leur donner accès à des données visuelles secrètes.

Le juge Leroy McCullough du comté de King, Washington, a écrit dans une nouvelle décision que la technologie de l'IA utilisait « des méthodes opaques pour représenter ce que le modèle d'IA « pense » devrait être montré », selon un nouveau rapport de Actualités NBC Mardi. Et c’est un peu de clarté rafraîchissante sur ce qui se passe avec ces outils d’IA dans un monde de battage médiatique sur l’IA.

« Cette Cour estime que l'admission de ces preuves renforcées par Al conduirait à une confusion des questions et à une confusion des témoignages oculaires, et pourrait conduire à un procès long dans le cadre d'un procès sur le processus non révisable par les pairs utilisé par le modèle d’IA », a écrit McCullough.

L'affaire concerne Joshua Puloka, un homme de 46 ans accusé d'avoir tué trois personnes et blessé deux autres dans un bar juste à l'extérieur de Seattle. en 2021. Les avocats de Puloka voulaient présenter une vidéo de téléphone portable capturée par un passant et améliorée par l'IA, bien qu'il ne soit pas clair ce qu'ils pensent pouvoir être glané à partir des images modifiées.

Les avocats de Puloka auraient fait appel à un « expert » en production vidéo créative qui n'avait jamais travaillé sur une affaire pénale auparavant pour « améliorer » la vidéo. L'outil d'IA utilisé par cet expert anonyme a été développé par la société texane Laboratoires de topazeaccessible à toute personne disposant d’une connexion Internet.

L'introduction d'outils d'imagerie basés sur l'IA ces dernières années a conduit à de nombreux malentendus sur les possibilités offertes par cette technologie. De nombreuses personnes pensent que l'exécution d'une photo ou d'une vidéo via des upscalers IA peut vous donner une meilleure idée des informations visuelles déjà présentes. Mais, en réalité, le logiciel d'IA ne fournit pas une image plus claire des informations présentes dans l'image : le logiciel est simplement ajouter des informations qui n'étaient pas là en premier lieu.

Par exemple, il existait une théorie du complot très répandue selon laquelle Chris Rock portait une sorte de masque facial lorsqu'il a été giflé par Will Smith aux Oscars en 2022. La théorie a commencé parce que les gens ont commencé à diffuser des captures d'écran de la gifle via des convertisseurs d'images, croyant qu'ils je pourrais avoir un meilleur aperçu Qu'est-ce qui s'est passé.

Mais ce n’est pas ce qui se produit lorsque vous exécutez des images grâce à l’amélioration de l’IA. Le programme informatique ajoute simplement plus d'informations dans le but de rendre l'image plus nette, ce qui peut souvent déformer ce qui est réellement là. En utilisant le curseur ci-dessous, vous pouvez voir l'image pixélisée qui est devenue virale avant que les gens ne commencent à l'alimenter via des programmes d'IA et à « découvrir » des choses qui n'étaient tout simplement pas présentes dans la diffusion originale.

D'innombrables photos et vidéos haute résolution de l'incident montrent de manière concluante que Rock n'avait pas de tampon sur le visage. Mais cela n’a pas empêché les gens de croire qu’ils pouvaient voir quelque chose de caché à la vue de tous en « convertissant » l’image en « 8K ».

L’essor des produits étiquetés IA a créé beaucoup de confusion parmi l’individu moyen quant à ce que ces outils peuvent réellement accomplir. De grands modèles de langage comme ChatGPT ont convaincu des personnes par ailleurs intelligentes que ces chatbots sont capables de raisonnements complexes alors que ce n'est tout simplement pas ce qui se passe sous le capot. Les LLM prédisent simplement le prochain mot qu'il devrait cracher pour ressembler à un humain plausible. Mais comme ils réussissent très bien à ressembler à des humains, de nombreux utilisateurs pensent qu'ils font quelque chose de plus sophistiqué qu'un tour de magie.

Et cela semble être la réalité avec laquelle nous allons vivre aussi longtemps que des milliards de dollars sont investis dans les entreprises d’IA. Beaucoup de gens qui devraient en savoir plus croient que quelque chose de profond se passe derrière le rideau et sont prompts à blâmer les « préjugés » et les garde-fous trop stricts. Mais quand vous creusez un peu plus, vous découvrez ces ce qu'on appelle des hallucinations ne sont pas une force mystérieuse mise en œuvre par des personnes trop éveillées, ou autre. Ils sont simplement le produit du fait que cette technologie d’IA n’est pas très bonne dans son travail.

Heureusement, un juge de Washington a reconnu que cette technologie n'était pas capable de fournir une meilleure image. Même si nous ne doutons pas qu’il existe de nombreux juges aux États-Unis qui ont adhéré au battage médiatique de l’IA et n’en comprennent pas les implications. Ce n'est qu'une question de temps avant que nous puissions utiliser au tribunal une vidéo améliorée par l'IA qui ne montre rien d'autre que des informations visuelles ajoutées bien après coup.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    RIP Joe Flaherty, star de SCTV et Freaks And Geeks

    Clap de fin de la 1ère édition du FEJAMAC (Festival de Jazz et des Musiques actuelles du Cameroun)