in

Google ajoute Bard AI à YouTube, Drive, Docs, Maps et Gmail

Google a annoncé un mise à jour suralimentée à son chatbot Bard mardi : Le géant de la tech va intégrer le génératif L’IA dans le plus populaire de l’entreprise services, notamment Gmail, Docs, Drive, Maps, YouTube, et plus encore. Avec une nouvelle fonctionnalité qui vous indique quand Bard fournit des réponses potentiellement inexactes, la nouvelle version de l’IA est au coude à coude avec ChatGPT pour le grand modèle de langage le plus utile et le plus accessible du marché.

Google est appeler les fonctionnalités génératives « Bard Extensions », le même nom que le nom sélectionné par l’utilisateur ajouts à Chrome. Avec l’IA extensions, vous pourrez envoyer Bard dans une mission qui récupère pour la toute première fois les données de toutes les parties disparates de votre compte Google. Si vous planifiez des vacances, par exemple, vous pouvez demander à Bard de trouver les dates qu’un ami vous a envoyées sur Gmail, de rechercher des vols et des hôtels sur Google Flights et de concevoir vous un itinéraire quotidien de choses à faire basé sur les informations de YouTube. Google promet qu’il n’utilisera pas vos données privées pour entraîner son IA et que ces nouvelles fonctionnalités sont facultatives.dans seulement.

Bard peut désormais gérer des tâches complexes extraites de votre compte Gmail et d’autres services Google.
Gifs: Google

Un nouvel outil de précision que Google appelle « Double Check the Response » est peut-être tout aussi important. Après avoir posé une question à Bard, vous pouvez appuyer sur le bouton « G » et l’IA vérifiera si les réponses sont étayées par des informations sur le Web. et mettre en évidence des informations qu’il a pu halluciner. La fonctionnalité fait de Bard le premier outil d’IA majeur qui se vérifie lui-même à la volée.

Cette nouvelle version améliorée de Bard est un outil à ses balbutiements, et il peut être bogué et ennuyeux. Mais c’est une lueur du type de technologie qu’on nous promet depuis les débuts de la science-fiction. Aujourd’hui, vous devez vous entraîner à poser des questions dans les termes extrêmement limités qu’un ordinateur peut comprendre. Cela n’a rien à voir avec les outils que vous voyez dans une série comme Star Trek, où vous pouvez aboyer « ordinateur » devant une machine et donner des instructions pour n’importe quelle tâche avec le même langage que vous utiliseriez pour demander à un être humain. Avec ces mises à jour de Bard, nous faisons un petit mais significatif pas de plus vers ce rêve.

Gizmodo s’est assis pour une interview avec Jack Krawczyk, chef de produit pour Google Bard, pour parler des nouvelles fonctionnalités, des problèmes de chatbot et de ce à quoi ressemble l’avenir proche de l’IA pour vous.


(Cette interview a été éditée pour plus de clarté et de cohérence.)

Jack Krawczyk : Deux choses que nous entendons assez régulièrement à propos des modèles de langage en général sont que « cela semble vraiment cool, mais cela ne m’est pas vraiment utile dans ma vie de tous les jours ». Et deuxièmement, vous entendez dire que cela invente beaucoup de choses, ce que les gens plus avisés appellent « hallucination ». À partir de demain, nous avons une réponse à ces deux choses.

Nous sommes le premier modèle linguistique qui s’intégrera directement dans votre vie personnelle. Grâce à l’annonce des extensions Bard, vous avez enfin la possibilité de vous inscrire et d’autoriser Bard à récupérer des informations de votre Gmail, de Google Docs ou ailleurs et de vous aider à collaborer avec. Et avec Double Check the Response, nous sommes le seul produit de modèle de langage prêt à admettre qu’il a commis une erreur.

Thomas Germain : Vous avez assez bien résumé ma réaction à l’actualité de l’IA l’année dernière. Ces outils sont incroyables, mais d’après mon expérience, fondamentalement inutiles pour la plupart des gens. En intégrant toutes les autres applications Google, cela commence à ressembler moins à un truc de fête qu’à un outil qui me facilite la vie.

JK : À la base, ce que nous pensons, l’interaction avec les modèles de langage nous permet de changer la mentalité que nous avons à l’égard de la technologie. Nous sommes tellement habitués à considérer la technologie comme un outil qui fait des choses pour vous, par exemple, dites-moi comment aller du point A au point B. Nous avons constaté que les gens sont naturellement attirés par cela. Mais c’est vraiment inspirant de voir cela comme une technologie qui fait des choses avec vous, ce qui n’est pas intuitif au début.

J’ai vu des gens l’utiliser pour des choses auxquelles je n’aurais jamais pensé. En fait, quelqu’un a pris une photo de son salon et lui a demandé : « Comment puis-je déplacer mes meubles pour améliorer le feng shui ? C’est le côté collaboratif qui me passionne. Nous appelons cela « imagination augmentée », car les idées et la curiosité sont dans votre tête. Nous essayons de vous aider à un moment où les idées sont vraiment fragiles et cassantes.

GT : Nous avons vu de nombreux exemples dans lesquels Bard ou un autre chatbot crache quelque chose de raciste ou donne des instructions dangereuses. Cela fait environ un an que nous avons tous rencontré ChatGPT. Pourquoi ce problème est-il si difficile à résoudre ?

JK : C’est là que je pense que la fonction Double Check est vraiment utile pour comprendre cela à un niveau plus profond. L’autre jour, j’ai cuisiné de l’espadon, et l’un des problèmes liés à la cuisson de l’espadon est qu’il peut donner une odeur à toute la maison pendant plusieurs jours. J’ai demandé à Bard quoi faire. L’une des suggestions proposées était de « laver votre animal plus fréquemment ». C’est une solution surprenante, mais elle a du sens. Mais si j’utilise la fonction Double Check, cela me dit que c’est faux, et les résultats du Web indiquent que laver votre animal trop fréquemment peut éliminer les huiles naturelles dont il a besoin pour une peau saine.

Nous avons fait évoluer l’application, elle va donc phrase par phrase et recherche sur Google pour voir si elle peut trouver des éléments qui valident ses réponses ou non. Dans le cas du lavage des animaux de compagnie, c’est une assez bonne réponse, et ce n’est pas comme s’il y avait nécessairement une bonne ou une mauvaise réponse, mais cela nécessite des nuances et un contexte.

La fonction Double Check de Bard vous permet de savoir quand il a pu avoir des hallucinations et fournit des liens avec le contexte du Web.
Gifs: Google

GT : Bard a un petit avertissement indiquant qu’il pourrait fournir des informations inexactes ou offensantes et qu’il ne représente pas le point de vue de l’entreprise. Plus de contexte est une bonne chose, mais la critique évidente est la suivante : « Pourquoi Google publie-t-il un outil qui pourrait donner des réponses offensantes ou inexactes en premier lieu ? » N’est-ce pas irresponsable ?

JK : Ces outils sont vraiment utiles pour explorer les possibilités. Parfois, lorsque vous êtes dans un état de collaboration, vous faites des suppositions, n’est-ce pas ? Nous pensons que c’est là la valeur de la technologie, et il n’existe aucun outil pour cela. Nous pouvons donner aux gens des outils pour faire face aux situations fragiles. Nous avons entendu les commentaires d’une personne autiste et elle a dit : « Je peux dire quand quelqu’un qui m’écrit un e-mail est en colère, mais je ne sais pas si la réponse que je vais lui donner le rendra encore plus en colère. »

Pour ce problème, il faut interpréter plutôt qu’analyser. Vous disposez de cet outil qui a le potentiel de résoudre des problèmes qu’aucune autre technologie ne peut résoudre aujourd’hui. C’est pourquoi nous devons trouver cet équilibre. Nous en sommes à six mois de Bard. C’est encore une expérience et ce problème n’est pas résolu. Mais nous pensons qu’il y a tellement de bien profond pour lequel nous n’avons pas de réponses aujourd’hui dans nos vies, et c’est pourquoi nous pensons qu’il est essentiel de mettre cela entre les mains des gens et de recueillir leurs commentaires.

La question que vous vous posez est la suivante : « pourquoi proposer une technologie qui fait des erreurs ? » Eh bien, c’est collaboratif et une partie de la collaboration consiste à faire des erreurs. Ici, vous voulez être audacieux, mais vous devez aussi équilibrer cela avec la responsabilité.

GT : J’imagine que l’objectif est qu’un jour, il n’y aura plus de différence entre Bard et la recherche Google, ce sera juste Google et vous obtiendrez tout ce qui est le plus utile pour le moment. C’est à quelle distance ?

JK : Eh bien, une analogie intéressante est la ceinture à outils par rapport aux outils. Vous avez un marteau et un tournevis, mais il y a aussi la ceinture elle-même. Est-ce aussi un outil ? C’est probablement un débat sémantique. Mais à l’heure actuelle, la plupart de nos technologies fonctionnent à peu près du genre : eh bien, je vais sur ce site pour faire ce travail. Je vais sur ce site pour faire cet autre travail. Nous disposons de tous les outils individuels, et je pense qu’ils seront optimisés par l’IA générative. Vous utilisez toujours les différents outils, mais ils fonctionnent désormais ensemble. C’est un peu comme ça que nous envisageons d’avoir une expérience générative autonome, et je pense que nous faisons le premier pas dans ce sens aujourd’hui.

GT : Ce n’est probablement pas ce dont vous envisagez de parler aujourd’hui. Mais je veux vous poser des questions sur la sensibilité. Que pense tu que cela soit? Est-ce même une question importante que nous devons poser à des gens comme vous en ce moment ?

JK : Je pense que le fait que les gens se posent cette question signifie que c’est une question importante. Ce que nous construisons aujourd’hui est-il sensible ? Catégoriquement, je dirais que la réponse est non. Mais il y a une discussion à avoir pour savoir s’il a le opportunité être sensible. Avec la sensibilité, je pense que, sous de nombreuses formes, elle est centrée sur la comparaison. Je n’ai vu aucun signe suggérant que les ordinateurs peuvent faire preuve de compassion. Et en s’inspirant des principes bouddhistes ici, pour avoir de la compassion, il faut souffrir.

GT : Donc tu n’as pas encore donné de capteurs de douleur à Bard ?

JK : (Riant) Non.

GT : Pouvez-vous nous dire quelque chose sur les projets de Google d’intégrer Bard à Android ?

JK : Pour le moment, Bard reste une application Web autonome à bard.google.com. Et la raison pour laquelle nous le gardons là est que c’est encore une expérience. Pour qu’une expérience soit utile, vous souhaitez minimiser les variables que vous y mettez. À ce stade, notre première hypothèse est qu’un modèle de langage lié à votre vie personnelle sera extrêmement utile. La deuxième hypothèse est qu’un modèle de langage prêt à admettre qu’il a commis une erreur et à quel point il est confiant dans ses propres réponses va construire une vérité plus profonde sur la manière dont les gens peuvent interagir avec cette idée. Ce sont les deux hypothèses que nous testons. Il y en a bien d’autres que nous souhaitons tester. Mais pour l’instant, nous essayons de minimiser les variables.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    États-Unis : des vigiles armés de fusils d’assaut pour assurer la sécurité des clients d’un fast-food à Philadelphie

    Bakou annonce le lancement d'une opération "antiterroriste" au Haut-Karabakh