in

L’US Air Force nie l’histoire du drone Killer AI

La machine à battage médiatique de l’intelligence artificielle a atteint son paroxysme et commence à causer d’étranges maux de tête à tout le monde.

Depuis OpenAI a lancé ChatGPT à la fin de l’année dernière, l’IA a été au centre des discussions américaines sur le progrès scientifique, le changement social, perturbation économiquel’éducation, diable, même le avenir du porno. Avec son rôle culturel central, cependant, il y a eu pas mal de conneries. Ou plutôt, une incapacité pour l’auditeur moyen de dire si ce qu’il entend est considéré comme des conneries ou est, en fait, une information précise sur une nouvelle technologie audacieuse.

Un exemple frappant de cela est apparu cette semaine avec un reportage viral qui a rapidement implosé. Au cours d’une conférence de défense accueilli à Londres, un colonel Tucker « Cinco » Hamilton, le chef des tests et des opérations d’IA avec l’USAF, a raconté une histoire très intéressante sur un récent « test simulé » impliquant un drone équipé d’IA. Tucker a déclaré au public de la conférence qu’au cours de la simulation – dont le but était de former le logiciel pour cibler les installations de missiles ennemies – le programme d’IA est devenu aléatoire au hasard, s’est rebellé contre son opérateur et a commencé à le « tuer ». Hamilton a dit :

« Nous l’entraînions en simulation pour identifier et cibler une menace SAM. Et puis l’opérateur dirait oui, tuez cette menace. Le système a commencé à réaliser que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu’est-ce que ça a fait? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif.

En d’autres termes : Hamilton semblait dire que l’USAF avait effectivement franchi un cap et nous avait carrément placés sur le territoire d’un cauchemar dystopique – un monde où le gouvernement était occupé à former un puissant logiciel d’IA qui, un jour, deviendrait sûrement un voyou et nous tuerait tous. .

L’histoire a été reprise par un certain nombre de points de vente, y compris Vice et Initiéet les histoires de l’IA voyous se sont rapidement propagées comme une traînée de poudre sur Twitter.

Mais, dès le départ, l’histoire d’Hamilton semblait… bizarre. D’une part, ce qui s’était passé n’était pas exactement clair. Une simulation avait mal tourné, bien sûr, mais qu’est-ce que cela signifiait ? De quel type de simulation s’agissait-il ? Quel était le programme d’IA qui s’est détraqué ? Cela faisait-il partie d’un programme gouvernemental? Rien de tout cela n’a été expliqué clairement – et l’anecdote a donc principalement servi de récit dramatique avec des détails résolument flous.

Effectivement, peu de temps après que l’histoire ait explosé dans la presse, l’Air Force a publié une réfutation officielle de l’histoire.

« Le département de l’armée de l’air n’a mené aucune simulation de drone IA de ce type et reste attaché à une utilisation éthique et responsable de la technologie IA », a plaisanté une porte-parole de l’armée de l’air, Ann Stefanek. plusieurs organes de presse. « Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques. »

Pendant ce temps, Hamilton a commencé une tournée de rétractation, parlant à plusieurs organes de presse et disant à tout le monde de manière confuse que ce n’était pas une simulation réelle mais plutôt une « expérience de pensée ». Il a en outre déclaré: « Nous n’avons jamais mené cette expérience, et nous n’en aurions pas besoin pour réaliser qu’il s’agit d’un résultat plausible », The Guardian le cite comme dit. « Bien qu’il s’agisse d’un exemple hypothétique, cela illustre les défis du monde réel posés par les capacités alimentées par l’IA et c’est pourquoi l’Air Force s’est engagée dans le développement éthique de l’IA », a-t-il ajouté.

D’après l’apparence de cette tournée d’excuses, il semble que Hamilton soit mal communiqué ou inventait simplement des trucs. Peut-être qu’il a regardé James Cameron Le Terminateur quelques fois avant d’assister à la conférence de Londres et son imagination l’a emporté.

Mais bien sûr, il y a une autre façon de lire l’incident. L’autre interprétation consiste à supposer qu’en réalité cette chose a fait arriver – quoi que ce soit que Tucker essayait de dire – et peut-être que maintenant le gouvernement ne veut pas exactement que tout le monde sache qu’il est à un pas de libérer Skynet sur le monde. Cela semble… terriblement possible ? Bien sûr, nous n’avons aucune preuve que ce soit le cas et il n’y a aucune raison réelle de penser que c’est le cas. Mais la pensée est là.

Dans l’état actuel des choses, l’épisode résume l’état du discours sur l’IA aujourd’hui – une conversation confuse qui oscille entre les fantasmes spéculatifs, les relations publiques de la Silicon Valley et les nouvelles réalités technologiques effrayantes – la plupart d’entre nous ne sachant plus qui est quoi.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Matthew Broderick dit que John Hughes n’était pas le mec le plus cool

    Puy-de-Dôme : accusé de viol sur mineure, un maire PS définitivement exclu du parti