in

Nous avons besoin d'un Red Hat pour l'IA

Tout le monde fait de l’IA, mais personne ne sait pourquoi. C’est bien sûr une exagération, mais il semble que le marché ait atteint un pic de battage médiatique sans un pic de productivité. Comme le souligne Barr Moses, PDG de Monte Carlo, dans une récente enquête de Wakefield, 91 % des responsables des données créent des applications d'IA, mais les deux tiers de ce même groupe ont déclaré ne pas confier leurs données à de grands modèles de langage (LLM). En d’autres termes, ils construisent l’IA sur du sable.

Pour réussir, nous devons aller au-delà du battage médiatique déroutant et aider les entreprises à donner un sens à l’IA. En d’autres termes, nous avons besoin de plus de confiance (modèles ouverts) et de moins de pièces mobiles (plateformes opiniâtres qui nécessitent des conjectures pour choisir et appliquer des modèles).

Nous pourrions avoir besoin d’un Red Hat pour l’IA. (Cela soulève également la question suivante : pourquoi Red Hat ne devient-il pas le Red Hat de l'IA ?)

Un modèle qui a besoin de complexité

Brian Stevens, qui était CTO de Red Hat en 2006, m'a aidé à comprendre une dépendance clé du modèle économique de Red Hat. Comme il l'a alors souligné : « Le modèle de Red Hat fonctionne en raison de la complexité de la technologie avec laquelle nous travaillons. Une plate-forme d'exploitation comporte de nombreuses pièces mobiles, et les clients sont prêts à payer pour être isolés de cette complexité. Red Hat crée une distribution de Linux, en choisissant certains packages (piles réseau, pilotes d'impression, etc.), puis en testant/renforçant cette distribution pour les clients.

N'importe qui peut télécharger du code Linux brut et créer sa propre distribution, et beaucoup le font. Mais pas les grandes entreprises. Ou même des petites entreprises. Ils sont heureux de payer Red Hat (ou un autre fournisseur tel qu'AWS) pour supprimer la complexité de la compilation des composants et faire en sorte que tout fonctionne ensemble de manière transparente. Il est important de noter que Red Hat contribue également à la variété de packages open source qui composent une distribution Linux. Cela donne aux grandes entreprises l'assurance que, si elles le souhaitaient (la plupart ne le font pas), elles pourraient s'éloigner de Red Hat Enterprise Linux d'une manière dont elles n'auraient jamais pu s'éloigner d'UNIX propriétaire.

Ce processus de démystification de Linux, combiné à l'open source qui a instauré la confiance dans le code, a fait de Red Hat une entreprise multimilliardaire. Le marché a besoin de quelque chose de similaire pour l’IA.

Un modèle qui engendre la complexité

OpenAI, aussi populaire soit-il aujourd'hui, est pas la solution. Cela ne fait qu’aggraver le problème avec la prolifération des modèles. OpenAI injecte de plus en plus de vos données dans ses LLM, les rendant meilleurs mais pas plus faciles à utiliser en production pour les entreprises. Ce n’est pas non plus seul. Google, Anthropic, Mistral, etc., etc., ont tous des LLM qu'ils souhaitent que vous utilisiez, et chacun semble être plus grand/meilleur/plus rapide que le précédent, mais pas plus clair pour l'entreprise moyenne.

Nous commençons à voir des entreprises s'éloigner du battage médiatique et effectuer un travail plus simple et plus utile avec la génération augmentée par récupération (RAG). C'est précisément le genre de travail qu'une entreprise de type Red Hat devrait effectuer pour les entreprises. Il me manque peut-être quelque chose, mais je n'ai pas encore vu Red Hat ou quiconque intervenir pour rendre l'IA plus accessible aux entreprises.

On pourrait s’attendre à ce que les fournisseurs de cloud remplissent ce rôle, mais ils ont pour l’essentiel conservé leurs manuels préexistants. AWS, par exemple, a bâti une activité de 100 milliards de dollars en évitant à ses clients le « gros travail indifférencié » de la gestion des bases de données, des systèmes d'exploitation, etc. Rendez-vous sur la page d'IA générative d'AWS et vous verrez qu'ils font la queue. offrir des services similaires aux clients dotés d’IA. Mais les LLM ne sont pas des systèmes d'exploitation, des bases de données ou tout autre élément connu de l'informatique d'entreprise. Ce sont toujours de la poussière de lutin et de la magie.

Le « gros travail indifférencié » ne consiste que partiellement à le gérer en tant que service cloud. Le besoin le plus urgent est de comprendre comment et quand utiliser efficacement tous ces composants d’IA. AWS pense rendre service à ses clients en proposant « un large choix de modèles et des outils d'IA générative » sur Amazon Bedrock, mais la plupart des entreprises d'aujourd'hui n'ont pas tant besoin d'un « large choix » que d'un choix significatif accompagné de conseils. Il en va de même pour Red Hat, qui vante la « gamme de choix » qu'offre son approche de l'IA, sans rendre ces choix plus accessibles aux entreprises.

Peut-être que cette attente selon laquelle les fournisseurs d’infrastructures iront au-delà de leur ADN pour proposer de véritables solutions est chimérique. Assez juste. Peut-être que, comme lors des cycles technologiques précédents, nous aurons les premiers gagnants dans les niveaux les plus bas de la pile (comme Nvidia), suivis par ceux un ou deux plus haut dans la pile, les plus grands gagnants étant les fournisseurs d'applications qui suppriment tout. la complexité pour les clients. Si cela est vrai, il est peut-être temps de se replier et d'attendre que les « créateurs de choix » cèdent la place à des fournisseurs capables de donner du sens à l'IA pour les clients.

Copyright © 2024 IDG Communications, Inc.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

    Les hors-la-loi de Star Wars seront entièrement consacrés à cette vie criminelle

    À 84 ans, je peux encore faire le grand écart et voici mon secret miracle pour vieillir en pleine forme