in

Traitez ChatGPT et l’IA comme des armes biologiques, pas comme des bombes nucléaires

Les humains d’aujourd’hui développent peut-être la technologie la plus puissante de notre histoire : l’intelligence artificielle. Les méfaits sociétaux de l’IA – y compris la discrimination, les menaces à la démocratie et la concentration d’influence – sont déjà bien documentés. Pourtant, les principales entreprises d’IA sont dans une course aux armements pour construire des systèmes d’IA de plus en plus puissants qui augmenteront ces risques à un rythme que nous n’avons pas vu dans l’histoire de l’humanité.

Alors que nos dirigeants s’efforcent de contenir et de contrôler le développement de l’IA et les risques associés, ils doivent réfléchir à la manière dont les réglementations et les normes ont permis à l’humanité de capitaliser sur les innovations dans le passé. La réglementation et l’innovation peuvent coexister et, surtout lorsque des vies humaines sont en jeu, il est impératif qu’elles le fassent.

La technologie nucléaire fournit un récit édifiant. Bien que l’énergie nucléaire soit plus de 600 fois plus sûr que le pétrole en termes de mortalité humaine et capable d’une production énorme, peu de pays y toucheront parce que le public a d’abord rencontré le mauvais membre de la famille.

Nous avons été initiés à la technologie nucléaire sous la forme des bombes atomiques et à hydrogène. Ces armes, qui représentaient la première fois dans l’histoire de l’humanité que l’homme avait développé une technologie capable de mettre fin à la civilisation humaine, étaient le produit d’une course aux armements privilégiant la vitesse et l’innovation plutôt que la sécurité et le contrôle. Les échecs ultérieurs d’une ingénierie de sécurité et d’une gestion des risques adéquates – qui ont conduit aux catastrophes nucléaires de Tchernobyl et de Fukushima – ont détruit toute chance d’acceptation généralisée de l’énergie nucléaire.

Bien que l’évaluation globale des risques de l’énergie nucléaire reste très favorable et que des décennies d’efforts aient été déployés pour convaincre le monde de sa viabilité, le mot « nucléaire » reste vicié. Lorsqu’une technologie cause des dommages dans ses phases naissantes, la perception sociétale et la réaction excessive de la réglementation peuvent réduire de façon permanente les avantages potentiels de cette technologie. En raison d’une poignée de faux pas précoces avec l’énergie nucléaire, nous n’avons pas été en mesure de capitaliser sur son énergie propre et sûre, et la neutralité carbone et la stabilité énergétique restent une chimère.

Mais dans certaines industries, nous avons réussi. La biotechnologie est un domaine incité à agir rapidement : des patients souffrent et meurent chaque jour de maladies qui manquent de remèdes ou de traitements. Pourtant, la philosophie de cette recherche n’est pas d’« aller vite et de casser des choses », mais d’innover aussi vite et en toute sécurité que possible. La vitesse limite de l’innovation dans ce domaine est déterminée par un système d’interdictions, de réglementations, d’éthique et de normes qui assure le bien-être de la société et des individus. Cela protège également l’industrie d’être paralysée par un retour de bâton à une catastrophe.

En interdisant les armes biologiques à la Convention sur les armes biologiques pendant la guerre froide, les superpuissances opposées ont pu se rassembler et convenir que la création de ces armes n’était dans l’intérêt de personne. Les dirigeants ont compris que ces technologies incontrôlables, mais hautement accessibles, ne devaient pas être traitées comme un mécanisme pour gagner une course aux armements, mais comme une menace pour l’humanité elle-même.

Cette pause dans la course aux armements biologiques a permis à la recherche de se développer à un rythme responsable, et les scientifiques et les régulateurs ont pu mettre en œuvre des normes strictes pour toute nouvelle innovation susceptible de nuire à l’homme. Ces réglementations ne se sont pas faites au détriment de l’innovation. Au contraire, la communauté scientifique a mis en place une bio-économie, avec des applications allant de l’énergie propre à l’agriculture. Pendant la pandémie de COVID-19, les biologistes ont traduit un nouveau type de technologie, l’ARNm, en un vaccin sûr et efficace à un rythme sans précédent dans l’histoire de l’humanité. Lorsque des préjudices importants pour les individus et la société sont en jeu, la réglementation n’entrave pas le progrès; il le permet.

Une enquête récente auprès de chercheurs en IA a révélé que 36% pensent que l’IA pourrait provoquer une catastrophe de niveau nucléaire. Malgré cela, la réponse du gouvernement et le mouvement vers la réglementation ont été au mieux lents. Ce rythme ne correspond pas à la montée en flèche de l’adoption de la technologie, ChatGPT dépassant désormais les 100 millions d’utilisateurs.

Ce paysage de risques d’IA en augmentation rapide a conduit 1800 PDG et 1500 professeurs ont récemment signé une lettre appelant à une pause de six mois développer une IA encore plus puissante et s’engager de toute urgence dans le processus de réglementation et d’atténuation des risques. Cette pause donnerait à la communauté mondiale le temps de réduire les dommages déjà causés par l’IA et d’éviter des impacts potentiellement catastrophiques et irréversibles sur notre société.

Alors que nous travaillons à une évaluation des risques des dommages potentiels de l’IA, la perte de potentiel positif devrait être incluse dans le calcul. Si nous prenons des mesures maintenant pour développer l’IA de manière responsable, nous pourrions tirer des avantages incroyables de la technologie.

Par exemple, nous avons déjà vu des aperçus de l’IA transformer la découverte et le développement de médicaments, améliorer la qualité et le coût des soins de santé et accroître l’accès aux médecins et aux traitements médicaux. DeepMind de Google a montré que l’IA est capable de résoudre des problèmes fondamentaux en biologie qui ont longtemps échappé à l’esprit humain. Et la recherche a montré que l’IA pourrait accélérer la réalisation de chacun des objectifs de développement durable des Nations Uniesamenant l’humanité vers un avenir de meilleure santé, d’équité, de prospérité et de paix.

C’est le moment pour la communauté mondiale de se rassembler – un peu comme nous l’avons fait il y a cinquante ans lors de la Convention sur les armes biologiques – pour assurer un développement sûr et responsable de l’IA. Si nous n’agissons pas rapidement, nous risquons de condamner un avenir radieux avec l’IA et notre propre société actuelle avec elle.

Vous voulez en savoir plus sur l’IA, les chatbots et l’avenir de l’apprentissage automatique ? Découvrez notre couverture complète de intelligence artificielleou parcourez nos guides pour Les meilleurs générateurs d’art AI gratuits et Tout ce que nous savons sur le ChatGPT d’OpenAI.

Emilia Javorsky, MD, MPH, est médecin-chercheuse et directrice des engagements multipartites au Future of Life Institute, qui a récemment publié des lettres ouvertes avertissant que l’IA représente un « risque d’extinction » pour l’humanité et plaider pour une pause de six mois sur le développement de l’IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Parcoursup : plus de 600.000 candidats ont déjà reçu une réponse positive

    Ces parents placent un micro dans le doudou de leur fille, ils font une découverte édifiante