in

Pourquoi le monde entier de l’IA parlait de « Q » cette semaine

Au lendemain du choc OpenAI de la semaine dernière lutte pour le pouvoiril y a eu une dernière révélation qui a fait office d’épilogue au désordre tentaculaire : un rapport de Reuters qui a révélé une percée soi-disant surprenante au sein de la startup. Cette percée se serait produite via un programme peu connu baptisé « Q-Star » ou « Q* ».

Selon le rapport, l’une des choses qui pourraient avoir déclenché le conflit fratricide au sein de l’influente société d’IA était cette « découverte » liée à Q. Avant l’éviction d’Altman, plusieurs membres du personnel d’OpenAI auraient écrit au conseil d’administration de l’entreprise au sujet d’une « puissante découverte d’intelligence artificielle qui, selon eux, pourrait menacer l’humanité ». Cette lettre était « un facteur parmi une plus longue liste de griefs du conseil d’administration ayant conduit au licenciement d’Altman », a affirmé Reuters, citant des sources anonymes.

Franchement, l’histoire avait l’air assez folle. Quel était ce nouveau programme étrange et pourquoi est-il censé avoir causé tout le chaos chez OpenAI ? Reuters a affirmé que le programme Q* avait réussi à permettre à un agent d’IA de faire des « mathématiques de niveau scolaire », une avancée technologique surprenante, si elle est vraie, qui pourrait précipiter de plus grands succès dans la création d’une intelligence artificielle générale, ou AGI, ont indiqué des sources. Un autre rapport de The Information a largement réitéré bon nombre des points soulevés par l’article de Reuters.

Pourtant, les détails entourant ce supposé programme Q n’ont pas été partagés par la société, ne laissant que les rapports anonymes et les spéculations généralisées en ligne sur la véritable nature du programme.

Certains ont émis l’hypothèse que le programme pourrait (en raison de son nom) avoir quelque chose à voir avec le Q-learning, une forme d’apprentissage automatique. Alors, oui, qu’est-ce que le Q-learning et comment pourrait-il s’appliquer au programme secret d’OpenAI ?

En général, il existe plusieurs manières différentes d’apprendre à un programme d’IA à faire quelque chose. L’un d’eux est connu sous le nom de « enseignement supervisé »et fonctionne en nourrissant les agents d’IA de grandes tranches de données « étiquetées », qui est ensuite utilisé pour entraîner le programme à exécuter une fonction par lui-même (généralement, cette fonction est davantage une classification de données). Dans l’ensemble, des programmes comme ChatGPT, le robot générateur de contenu d’OpenAI, ont été créés utiliser une forme d’apprentissage supervisé.

L’apprentissage non supervisé, quant à lui, est une forme de ML dans laquelle les algorithmes d’IA sont autorisés à passer au crible de grandes tranches de données non étiquetées, dans le but de trouver des modèles à classer. Ce type d’intelligence artificielle peut être déployé à de nombreuses fins différentes, par exemple pour créer le type de systèmes de recommandation que des entreprises comme Netflix et Spotify utilisent pour suggérer de nouveaux contenus aux utilisateurs en fonction de leurs choix de consommation passés.

Enfin, il existe l’apprentissage renforcé, ou RL, qui est une catégorie de ML qui incite un programme d’IA à atteindre un objectif dans un environnement spécifique. Le Q-learning est une sous-catégorie de l’apprentissage renforcé. Dans RL, les chercheurs traitent les agents d’IA un peu comme un chien qu’ils essaient de dresser. Les programmes sont « récompensés » s’ils prennent certaines mesures pour affecter certains résultats et sont pénalisés s’ils en prennent d’autres. De cette manière, le programme est efficacement « entraîné » pour rechercher le résultat le plus optimisé dans une situation donnée. Dans le Q-learning, l’agent travaille apparemment par essais et erreurs pour trouver la meilleure façon de parvenir à un objectif pour lequel il a été programmé.

Qu’est-ce que tout cela a à voir avec la prétendue avancée « mathématique » d’OpenAI ? On pourrait supposer que le programme qui a réussi (prétendument) à effectuer des opérations mathématiques simples pourrait être parvenu à cette capacité via une forme de RL liée à Q. Cela dit, de nombreux experts sont quelque peu sceptiques quant à la capacité des programmes d’IA à résoudre réellement des problèmes mathématiques. D’autres semblent penser que même si une IA pouvait atteindre de tels objectifs, elle ne se traduirait pas nécessairement par des percées plus larges en AGI. La revue MIT Technology, en discussion avec :

Les chercheurs tentent depuis des années de faire en sorte que des modèles d’IA résolvent des problèmes mathématiques. Les modèles de langage comme ChatGPT et GPT-4 peuvent faire des calculs, mais pas très bien ni de manière fiable. Nous ne disposons actuellement pas des algorithmes ni même des architectures appropriées pour pouvoir résoudre des problèmes mathématiques de manière fiable à l’aide de l’IA, explique Wenda Li, professeur d’IA à l’Université d’Édimbourg. L’apprentissage profond et les transformateurs (une sorte de réseau neuronal), utilisés par les modèles de langage, sont excellents pour reconnaître des modèles, mais cela ne suffit probablement pas, ajoute Li.

En bref : nous ne savons vraiment pas grand chose sur Q, cependant, si l’on en croit les experts, le battage médiatique qui l’entoure pourrait n’être que cela : du battage médiatique.

Question du jour : Sérieusement, que s’est-il passé avec Sam Altman ?

Photo: Justin Sullivan (Getty Images)

Malgré le fait qu’il soit de retour à OpenAI, il convient de considérer que nous ne savons toujours pas ce qui s’est passé avec Sam Altman la semaine dernière. Dans un entretien qu’il a fait avec The Verge mercredi, Altman n’a pratiquement rien révélé sur ce qui a précipité la lutte de pouvoir dramatique au sein de son entreprise la semaine dernière. Malgré les insistances constantes du journaliste du média, Altman a simplement levé les mains et a déclaré qu’il n’en parlerait pas dans un avenir prévisible. «Je comprends parfaitement pourquoi les gens veulent une réponse maintenant. Mais je pense aussi qu’il est totalement déraisonnable de s’attendre à cela », a déclaré le PDG rebondi. Au lieu de cela, ce que The Verge a pu retirer de la direction d’OpenAI, c’est que l’entreprise est en train de mener un « examen indépendant » sur ce qui s’est passé – un processus dans lequel, a-t-il dit, il ne veut pas « interférer ». avec. Notre propre couverture du shitshow de la semaine dernière l’a interprété selon un récit impliquant un conflit entre l’éthique du conseil d’administration et la volonté obstinée d’Altman de commercialiser la technologie automatisée d’OpenAI. Cependant, ce récit n’est que cela : un récit. Nous ne connaissons pas les détails précis de ce qui a conduit à l’éviction de Sam, même si nous aimerions certainement le savoir.

Autres titres cette semaine

  • Israël utilise l’IA pour identifier des militants palestiniens présumés. Si vous craignez que les gouvernements ne perdent pas de temps à transformer l’IA en arme pour la guerre moderne, écoutez ceci. Un article du Guardian montre qu’Israël est actuellement en utilisant un programme d’IA baptisé Habsora ou « L’Évangile » pour identifier des cibles militantes apparentes en Palestine. Le programme est utilisé pour « produire des cibles à un rythme rapide », indique apparemment une déclaration publiée sur le site Internet de l’armée israélienne, et des sources ont déclaré au Guardian que le programme a aidé l’armée israélienne à constituer une base de données de quelque 30 000 à 40 000 militants présumés. Le média rapporte : « Des systèmes tels que l’Évangile… (selon des sources) ont joué un rôle essentiel dans l’établissement de listes d’individus autorisés à être assassinés. »
  • Elon Musk s’est prononcé cette semaine sur les questions de droits d’auteur sur l’IA et, comme d’habitude, a semblé stupide. De multiples poursuites ont fait valoir que les entreprises technologiques volent et reconditionnent essentiellement du matériel protégé par le droit d’auteur, ce qui leur permet de monétiser le travail d’autres personnes (généralement des auteurs et des artistes visuels) gratuitement. Elon Musk s’est lancé dans cette conversation controversée lors de son Interview bizarre avec Dealbook cette semaine. Naturellement, les pensées qu’il partageait semblaient moins qu’intelligibles. Il a dit, et je cite: « Je ne sais pas, sauf pour dire qu’au moment où ces procès seront résolus, nous aurons le Dieu numérique. Vous pouvez donc demander à Digital God à ce stade. Euh. Ces poursuites ne seront pas tranchées dans un délai pertinent. Magnifique, Elon. Gardez simplement les yeux ouverts sur cette divinité numérique. Pendant ce temps, dans le monde réel, les experts juridiques et réglementaires devront faire face aux perturbations que cette technologie provoque continuellement pour des personnes bien moins fortunées que les dirigeants de la Silicon Valley.
  • Les robots-taxis de croisière continuent de lutter. Cruise, la société de robotaxis appartenant à General Motors, a connu une année très difficile. Son PDG a démissionné la semaine dernière, à la suite d’un tourbillon de controverses autour des différents incidents de l’entreprise à San Francisco. Cette semaine, Il a été rapporté que GM réduirait ses investissements dans l’entreprise. « Nous nous attendons à ce que le rythme d’expansion de Cruise soit plus délibéré lorsque les opérations reprendront, ce qui entraînera des dépenses nettement inférieures en 2024 par rapport à 2023 », aurait déclaré Mary Barra, PDG de GM, lors d’une conférence d’investisseurs mercredi.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

Fosse (Val-d’Oise) : une personne tuée lors d’une rixe

La décision cruciale de la CAF sur les convocations des joueurs crée un gros dilemme pour Aliou Cissé