in

Comment l’IA pourrait-elle entraîner l’extinction de l’humanité ?

Illustration: Ole.CNX (Shutterstock)

Cette semaine, un groupe de chercheurs en IA bien connus et réputés signé une déclaration composé de 22 mots:

L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire.

En tant que professeur d’IA, je suis également favorable à la réduction de tout risque et prêt à y travailler personnellement. Mais toute déclaration formulée de cette manière est vouée à créer l’alarme, de sorte que ses auteurs devraient probablement être plus précis et clarifier leurs préoccupations.

Selon la définition de l’Encyclopedia Britannica, l’extinction est « la disparition ou l’extermination d’une espèce”. J’ai rencontré de nombreux signataires de la déclaration, qui comptent parmi les scientifiques les plus réputés et les plus solides dans le domaine – et ils ont certainement de bonnes intentions. Cependant, ils ne nous ont donné aucun scénario tangible sur la façon dont un événement aussi extrême pourrait se produire.

Ce n’est pas la première fois que nous sommes dans cette situation. Le 22 mars de cette année, une pétition signée par un ensemble différent d’entrepreneurs et de chercheurs a demandé une pause de six mois dans le déploiement de l’IA. Dans la pétition, sur le site Web de l’Institut Future of Life, ils ont exposé leur raisonnement : « Risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA » – et ont accompagné leur demande d’une liste de questions rhétoriques:

Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?

Un sentiment d’alarme générique

Il est certainement vrai que, outre de nombreux avantages, cette technologie comporte des risques que nous devons prendre au sérieux. Mais aucun des scénarios susmentionnés ne semble tracer une voie spécifique vers l’extinction. Cela signifie que nous nous retrouvons avec un sentiment d’alarme générique, sans aucune action possible que nous puissions prendre.

Le site internet de la Centre pour la sécurité de l’IAoù la dernière déclaration est apparue, décrit dans une section distincte huit grandes catégories de risques. Celles-ci incluent la « militarisation » de l’IA, son utilisation pour manipuler le système d’information, la possibilité que les humains finissent par devenir incapables de s’autogouverner, la facilitation de régimes oppressifs, etc.

À l’exception de la militarisation, on ne sait pas comment les autres risques – toujours terribles – pourraient conduire à l’extinction de notre espèce, et le fardeau de l’énoncer incombe à ceux qui le revendiquent.

La militarisation est une réelle préoccupation, bien sûr, mais ce que l’on entend par là doit également être clarifié. Sur son site Web, la principale préoccupation du Center for AI Safety semble être l’utilisation de systèmes d’IA pour concevoir des armes chimiques. Cela devrait être évité à tout prix – mais les armes chimiques sont déjà interdites. L’extinction est un événement bien précis qui appelle des explications bien précises.

Le 16 mai, lors de son audition au Sénat américain, Sam Altman, le PDG d’OpenAI – qui a développé le chatbot ChatGPT AI – a été invité à deux reprises à énoncer son pire scénario. Il a finalement répondu :

Mes pires craintes sont que nous – le domaine, la technologie, l’industrie – causons un préjudice important au monde… C’est pourquoi nous avons créé l’entreprise (pour éviter cet avenir)… Je pense que si cette technologie tourne mal, elle peut mal tourner.

Mais bien que je sois fermement en faveur d’être aussi prudent que possible, et que je l’ai dit publiquement au cours des dix dernières années, il est important de maintenir un sens des proportions – en particulier lorsque l’on parle de l’extinction d’une espèce de huit milliards personnes.

L’IA peut créer des problèmes sociaux qu’il faut vraiment éviter. En tant que scientifiques, nous avons le devoir de les comprendre et ensuite de faire de notre mieux pour les résoudre. Mais la première étape consiste à les nommer et à les décrire – et à être précis.

Vous voulez en savoir plus sur l’IA, les chatbots et l’avenir de l’apprentissage automatique ? Découvrez notre couverture complète de intelligence artificielleou parcourez nos guides pour Les meilleurs générateurs d’art AI gratuits et Tout ce que nous savons sur le ChatGPT d’OpenAI.

Nello CristianiniProfesseur d’Intelligence Artificielle, Université de Bath

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    L’AMPTP est soudain heureuse de donner aux réalisateurs un contrat « historique »

    elle dévoile une incroyable vidéo de son mariage avec Boubacar Kamara