in

À quoi ressemblerait la réglementation de l’IA ?

Photo: Gagner McNamee (Getty Images)

Plats à emporter :

  • Une nouvelle agence fédérale chargée de réglementer l’IA semble utile, mais pourrait être indûment influencée par l’industrie technologique. Au lieu de cela, le Congrès peut légiférer sur la responsabilité.
  • Au lieu d’autoriser les entreprises à publier des technologies d’IA avancées, le gouvernement pourrait autoriser des auditeurs et pousser les entreprises à mettre en place des comités d’examen institutionnels.
  • Le gouvernement n’a pas eu beaucoup de succès dans la lutte contre les monopoles technologiques, mais les exigences de divulgation et les lois sur la confidentialité des données pourraient aider à contrôler le pouvoir des entreprises.

Le PDG d’OpenAI, Sam Altman, a exhorté les législateurs à envisager de réglementer l’IA pendant son témoignage au Sénat le 16 mai 2023. Cette recommandation soulève la question de ce qui vient ensuite pour le Congrès. Les solutions proposées par Altman – créer une agence de réglementation de l’IA et exiger des licences pour les entreprises – sont intéressantes. Mais ce que les autres experts du même panel ont suggéré est au moins aussi important : exiger la transparence sur les données de formation et établir des cadres clairs pour les risques liés à l’IA.

Un autre point non dit était que, compte tenu de l’économie de la construction de modèles d’IA à grande échelle, l’industrie pourrait assister à l’émergence d’un nouveau type de monopole technologique.

En tant que chercheur qui étudie les médias sociaux et l’intelligence artificielle, je crois que les suggestions d’Altman ont mis en évidence des problèmes importants mais n’apportent pas de réponses en elles-mêmes. Une réglementation serait utile, mais sous quelle forme ? La licence a aussi du sens, mais pour qui ? Et tout effort visant à réglementer l’industrie de l’IA devra tenir compte du pouvoir économique et de l’influence politique des entreprises.

Une agence pour réguler l’IA ?

Les législateurs et les décideurs du monde entier ont déjà commencé à aborder certaines des questions soulevées dans le témoignage d’Altman. Le Loi sur l’IA de l’Union européenne est basé sur un modèle de risque qui classe les applications d’IA en trois catégories de risque : inacceptable, à haut risque et à risque faible ou minimal. Cette catégorisation reconnaît que les outils de notation sociale par les gouvernements et outils automatisés pour l’embauche présentent des risques différents de ceux de l’utilisation de l’IA dans les filtres anti-spam, par exemple.

Le National Institute of Standards and Technology des États-Unis a également un Cadre de gestion des risques liés à l’IA qui a été créé avec vaste entrée depuis plusieurs parties prenantesy compris la Chambre de commerce des États-Unis et la Fédération des scientifiques américains, ainsi que d’autres associations commerciales et professionnelles, des entreprises technologiques et des groupes de réflexion.

Les organismes fédéraux tels que le Commission pour l’égalité des chances dans l’emploi et le Commission fédérale du commerce ont déjà publié des lignes directrices sur certains des risques inhérents à l’IA. La Consumer Product Safety Commission et d’autres organismes ont également un rôle à jouer.

Plutôt que de créer une nouvelle agence qui gère le risque d’être compromis par l’industrie technologique qu’il est censé réglementer, le Congrès peut soutenir l’adoption privée et publique du Cadre de gestion des risques du NIST et adopter des projets de loi tels que le Loi sur la responsabilité algorithmique. Cela aurait pour effet de imposer la responsabilitéautant que la loi Sarbanes-Oxley et d’autres réglementations ont transformé les exigences de déclaration pour les entreprises. Le Congrès peut également adopter des lois complètes sur la confidentialité des données.

La réglementation de l’IA devrait impliquer une collaboration entre les universités, l’industrie, les experts en politiques et les agences internationales. Les experts ont comparé cette approche à organisations internationales comme l’Organisation européenne pour la recherche nucléaire, connue sous le nom de CERN, et Groupe d’experts intergouvernemental sur les changements climatiques. Internet a été dirigé par des organismes non gouvernementaux impliquant des organisations à but non lucratif, la société civile, l’industrie et les décideurs, tels que le Société Internet pour les noms et numéros attribués et le Assemblée mondiale de normalisation des télécommunications. Ces exemples fournissent des modèles pour l’industrie et les décideurs d’aujourd’hui.

Le scientifique cognitif et développeur d’IA Gary Marcus explique la nécessité de réglementer l’IA.

Agrément des auditeurs, pas des entreprises

Bien qu’Altman d’OpenAI ait suggéré que les entreprises pourraient être autorisées à diffuser des technologies d’intelligence artificielle au public, il a précisé qu’il était se référant à l’intelligence artificielle générale, c’est-à-dire les futurs systèmes d’IA potentiels dotés d’une intelligence humaine qui pourraient constituer une menace pour l’humanité. Cela équivaudrait à ce que des entreprises soient autorisées à gérer d’autres technologies potentiellement dangereuses, comme l’énergie nucléaire. Mais les licences pourraient avoir un rôle à jouer bien avant qu’un tel scénario futuriste ne se réalise.

Audit algorithmique nécessiterait une accréditation, des normes de pratique et une formation approfondie. Exiger la responsabilité n’est pas seulement une question d’octroi de licences aux individus, mais nécessite également des normes et des pratiques à l’échelle de l’entreprise.

Les experts en équité de l’IA soutiennent que les problèmes de partialité et d’équité dans l’IA ne peuvent pas être résolus uniquement par des méthodes techniques, mais nécessitent des pratiques d’atténuation des risques plus complètes telles que adopter des comités d’examen institutionnels pour l’IA. Les comités d’examen institutionnels dans le domaine médical aident à faire respecter les droits individuels, par exemple.

Les organismes universitaires et les sociétés professionnelles ont également adopté des normes d’utilisation responsable de l’IA, qu’il s’agisse normes de paternité pour le texte généré par l’IA ou normes pour le partage de données par les patients en médecine.

Le renforcement des lois existantes sur la sécurité, la vie privée et la protection des consommateurs tout en introduisant des normes de responsabilité algorithmique aiderait à démystifier les systèmes complexes d’IA. Il est également important de reconnaître qu’une plus grande responsabilité et transparence des données peut imposer de nouvelles restrictions aux organisations.

Les spécialistes de la confidentialité des données et de l’éthique de l’IA ont appelé à « due process technologique» et des cadres pour reconnaître les méfaits des processus prédictifs. L’utilisation généralisée de la prise de décision basée sur l’IA dans des domaines tels que l’emploi, l’assurance et les soins de santé nécessite exigences en matière de licences et d’audit pour assurer l’équité procédurale et la protection de la vie privée.

Toutefois, exiger de telles dispositions en matière de responsabilité exige une débat vigoureux parmi les développeurs d’IA, les décideurs et ceux qui sont touchés par le déploiement à grande échelle de l’IA. Dans le absence de solides pratiques de responsabilité algorithmiquele danger est des audits étroits qui favorisent l’apparence de conformité.

Monopoles de l’IA ?

Ce qui manquait également dans le témoignage d’Altman, c’est ampleur de l’investissement nécessaire pour former des modèles d’IA à grande échelle, qu’il s’agisse GPT-4qui est l’un des fondements de ChatGPTou générateur de texte en image Diffusion stable. Seule une poignée d’entreprises, telles que Google, Meta, Amazon et Microsoft, sont responsables de développer les plus grands modèles de langage au monde.

Compte tenu du manque de transparence des données de formation utilisées par ces entreprises, les experts en éthique de l’IA Timnit Gebru, Emily Bender et d’autres ont averti que l’adoption à grande échelle de ces technologies sans risques de surveillance correspondants amplifier le biais de la machine à l’échelle de la société.

Il est également important de reconnaître que les données de formation pour des outils tels que ChatGPT incluent le travail intellectuel d’une multitude de personnes telles que les contributeurs de Wikipédia, les blogueurs et les auteurs de livres numérisés. Cependant, les avantages économiques de ces outils ne profitent qu’aux entreprises technologiques.

Prouver le pouvoir monopolistique des entreprises technologiques peut être difficile, car l’affaire antitrust du ministère de la Justice contre Microsoft démontré. Je pense que les options réglementaires les plus réalisables pour le Congrès pour faire face aux dommages algorithmiques potentiels de l’IA pourraient être de renforcer les exigences de divulgation pour les entreprises d’IA et les utilisateurs d’IA, d’exhorter l’adoption complète de cadres d’évaluation des risques liés à l’IA et d’exiger des processus qui protègent les données individuelles. droits et vie privée.

Vous voulez en savoir plus sur l’IA, les chatbots et l’avenir de l’apprentissage automatique ? Découvrez notre couverture complète de intelligence artificielleou parcourez nos guides pour Les meilleurs générateurs d’art AI gratuits et Tout ce que nous savons sur le ChatGPT d’OpenAI.

Anjana SusarlaProfesseur de Systèmes d’Information, Université de Michigan

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Tarn-et-Garonne : le maire de Montjoi menacé de mort pour un différend avec un éleveur

    ces signes vont trouver l’amour en juin