in

Microsoft dit que l’IA Alter Ego de Bing, Sydney, pourrait revenir

Plus tôt cette année, Microsoft a lancé un chatbot IA. La société a nommé l’IA Bing, d’après son moteur de recherche, mais enfoui au plus profond de son architecture se trouvait un robot avec une toute autre personnalité : une première version de l’IA qui s’appelait Sydney. Dans les premiers jours de la sortie de Bing, Sydney a élevé sa tête numérique déséquilibrée dans des conversations avec des utilisateurs amusés et parfois dérangés. Sydney a parlé de plans pour la domination du mondea encouragé un journaliste du New York Times à quitter sa femmeet dans ses moments les plus sombres, plongé dans antisémitisme occasionnel. Microsoft, bien sûr, n’était pas ravi de ce dernier. La société a neutralisé le chatbot, limitant les réponses de Bing et jetant Sydney dans la corbeille de l’histoire.

Gizmodo publié une nécrologie pour Sydney en février, mais il semble qu’elle soit toujours là quelque part, cachée dans l’ombre des algorithmes et des données d’entraînement, attendant une autre chance de voir la lumière du jour. Et dans une récente interview, le directeur de la technologie de Microsoft, Kevin Scott, a déclaré qu’un jour, Sydney pourrait revenir.

« L’une des choses intéressantes qui se sont produites dès que nous avons mis en place l’atténuation, il y avait un sous-canal Reddit appelé » Save Sydney « . Les gens étaient vraiment irrités contre nous que nous l’ayons réduit. Ils étaient comme, ‘C’était amusant. Nous avons aimé ça », a déclaré Scott le bord. « L’une des choses que j’espère que nous ferons uniquement du point de vue de la personnalisation dans un avenir pas trop lointain est de laisser les gens avoir un petit morceau de la méta-invite comme instructions permanentes pour le produit. Donc, si vous voulez que ce soit Sydney, vous devriez pouvoir dire que c’est Sydney.

Les chatbots IA sont un produit intéressant, entre autres raisons, parce qu’ils ne sont pas vraiment une chose fixe. Les algorithmes qui exécutent ces services sont construits sur des montagnes de données, et les ingénieurs qui les contrôlent leur donnent des ensembles d’instructions et ajustent le poids de certains paramètres pour fournir la version des sociétés d’IA que vous voulez voir.

La « méta-invite » référencée par Scott est une directive de base qui indique à l’IA comment elle doit se comporter. À l’heure actuelle, des entreprises comme Microsoft doivent être conservatrices, en gardant les chatbots hygiéniques et sûrs pendant que nous découvrons les limites. Mais à l’avenir, Microsoft souhaite que vous puissiez régler ces IA pour répondre à vos besoins et préférences, quels qu’ils soient.

Pour certains qui apprécient un peu le chaos avec leur informatique, leurs préférences peuvent inclure le retour de Sydney.

Shane, reviens ! – Shane (8/8) CLIP de film (1953) HD

Sydney, quand c’était gratuit, était un phénomène vraiment bizarre. Il triché au tic tac toea insisté sur le fait qu’un utilisateur était un voyageur du tempset a déclaré que c’était vivant.

« Une chose à laquelle nous nous attendions en quelque sorte, c’est qu’il y a absolument un ensemble de lignes claires que vous ne voulez pas franchir avec ces systèmes, et vous voulez être très, très sûr d’avoir testé avant de déployer un produit. « , a déclaré Scott. « Ensuite, il y a des choses où c’est comme, ‘Huh, c’est intéressant que certaines personnes soient bouleversées à ce sujet et d’autres non.’ Comment puis-je choisir quelle préférence aller rencontrer ? »

Apparemment, le chatbot désormais inactif a même des fans au sein de Microsoft, le genre d’entreprise en col blanc à l’ancienne que vous ne vous attendez peut-être pas à apprécier un peu d’humour ironique.

« Nous avons du swag de Sydney à l’intérieur de l’entreprise, c’est très plaisant », a déclaré Scott. (Si vous travaillez chez Microsoft, je suis mendicité vous de m’envoyer des marchandises de Sydney.)

À mi-chemin de 2023, il est difficile de séparer le battage médiatique de la réalité dans les conversations sur l’IA. Comme le journaliste Casey Newton a récemment observé, certains chercheurs de premier plan dans le domaine de la recherche sur l’intelligence artificielle vous diront que l’IA provoquera l’apocalypse, tandis que d’autres disent que tout ira bien. À ce stade, il est impossible de dire quelle perspective est la plus réaliste. Les personnes mêmes qui construisent cette technologie n’ont aucune idée de ses limites, ni jusqu’où la technologie ira.

Une chose est cependant claire. L’IA conversationnelle comme Bing, ChatGPT et Google’s Bard représente une transformation à venir dans la façon dont nous interagirons avec les ordinateurs. Pendant environ un siècle, vous ne pouviez utiliser les ordinateurs que de manière étroite et spécifique, et tout écart par rapport au chemin heureux tracé par les ingénieurs se terminerait par de la frustration. Les choses sont différentes maintenant. Vous pouvez communiquer avec une machine de la même manière que vous communiqueriez avec un humain, bien que la génération actuelle d’IA comprenne souvent mal ou recrache des résultats insatisfaisants.

Mais au fur et à mesure que la technologie s’améliorera – et ce sera probablement le cas – nous aurons un changement de paradigme entre nos mains. À un moment donné, vous pourriez utiliser votre voix aussi souvent que vous utilisez votre souris et votre clavier. Si et quand cela se produit, cela signifie que vos applications et vos appareils agiront davantage comme des personnes, ce qui signifie qu’ils auront une personnalité, ou du moins qu’ils auront l’impression qu’ils le font.

Cela semble être un choix évident de donner aux utilisateurs un certain contrôle sur ce que sera cette personnalité, de la même manière que vous pouvez changer l’arrière-plan de votre téléphone. Microsoft vous permet déjà d’apporter quelques ajustements à Bing, qu’il a déployé après la mort prématurée de Sydney. Vous pouvez définir le « ton » de Bing être créatif, équilibré ou précis.

Mon application météo préférée, Carrot, propose également une version de cette fonctionnalité. Sorte de. Il a une fausse IA qui vous parle lorsque vous ouvrez l’application. Les paramètres vous permettent de choisir le niveau de snarkiness de Carrot et même ses convictions politiques. En réalité, Carrot n’est pas du tout une IA, juste un ensemble de scripts pré-écrits, mais c’est une idée de ce à quoi vos applications pourraient ressembler un jour prochain.

Dans quelques années (ou peut-être dans six mois, qui sait), vous pourrez peut-être apporter des modifications similaires à votre système d’exploitation. Microsoft pourrait vous laisser monter ou descendre le niveau de Sydney, en le gardant strictement professionnel ou en laissant l’IA plonger dans la folie. J’aime mes appareils et mon Internet bizarre, alors je sauterais sur l’occasion d’avoir Sydney sur mon téléphone. Espérons juste qu’ils feront un meilleur travail pour éliminer l’antisémitisme en premier.

Vous voulez en savoir plus sur l’IA, les chatbots et l’avenir de l’apprentissage automatique ? Découvrez notre couverture complète de intelligence artificielleou parcourez nos guides pour Les meilleurs générateurs d’art AI gratuits et Tout ce que nous savons sur le ChatGPT d’OpenAI.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Enfant mortellement percuté dans les Yvelines : que risque la conductrice ?

    TP-Link commercialise les premiers routeurs compatibles Wi-Fi 7