in

Comment les processeurs relèveront les défis énergétiques de l’IA générative

Comment les processeurs relèveront les défis énergétiques de l’IA générative

La grande majorité des dirigeants d’entreprise (98 %) reconnaissent l’importance stratégique de l’IA, et près de 65 % d’entre eux prévoient des investissements accrus. Les dépenses mondiales en matière d’IA devraient atteindre 300 milliards de dollars d’ici 2026. D’ici 2026 également, la consommation d’électricité de l’IA pourrait être multipliée par dix, selon l’Agence internationale de l’énergie. De toute évidence, l’IA pose aux entreprises un double défi : maximiser ses capacités tout en minimisant son impact environnemental.

Rien qu’aux États-Unis, la consommation électrique des centres de données devrait doubler d’ici 2030, pour atteindre 35 GW (gigawatts), principalement en raison de la demande croissante de technologies d’IA. Cette augmentation est largement due au déploiement de racks prêts pour l’IA, qui consomment chacun entre 40 et 60 kW (kilowatts) en raison de leurs processus gourmands en GPU.

Il existe trois stratégies principales disponibles pour relever efficacement ces défis énergétiques imminents :

  1. Sélectionner les bonnes ressources informatiques pour les charges de travail d’IA, en mettant l’accent sur la distinction entre les besoins de formation et d’inférence.
  2. Optimisation des performances et de l’efficacité énergétique dans les empreintes existantes des centres de données.
  3. Favoriser le développement durable de l’IA grâce à des efforts de collaboration à travers l’écosystème.

CPU et GPU pour les charges de travail d’inférence d’IA

Contrairement à la croyance populaire, les pratiques durables en matière d’IA montrent que les processeurs, et pas seulement les GPU haute puissance, conviennent à la plupart des tâches d’IA. Par exemple, 85 % des calculs de l’IA sont utilisés à des fins d’inférence et ne nécessitent pas de GPU.

Pour les tâches d’inférence d’IA, les processeurs offrent un mélange équilibré de performances, d’efficacité énergétique et de rentabilité. Ils gèrent habilement des tâches d’inférence diverses et moins intensives, ce qui les rend particulièrement économes en énergie. De plus, leur capacité à traiter des tâches parallèles et à s’adapter aux demandes fluctuantes garantit une utilisation optimale de l’énergie, essentielle au maintien de l’efficacité. Cela contraste fortement avec les GPU plus gourmands en énergie, qui excellent dans la formation à l’IA en raison de leurs capacités hautes performances mais restent souvent sous-utilisés entre des tâches intensives.

De plus, les dépenses énergétiques et financières moindres associées aux processeurs en font une option préférable pour les organisations qui s’efforcent d’assurer des opérations durables et rentables. Renforçant encore cet avantage, les bibliothèques d’optimisation logicielle adaptées aux architectures CPU réduisent considérablement la demande d’énergie. Ces bibliothèques optimisent les tâches d’inférence de l’IA pour qu’elles s’exécutent plus efficacement, en alignant les processus de calcul sur les caractéristiques opérationnelles du processeur afin de minimiser la consommation d’énergie inutile.

De même, les développeurs d’entreprise peuvent utiliser des outils logiciels de pointe qui améliorent les performances de l’IA sur les processeurs. Ces outils s’intègrent parfaitement aux frameworks d’IA courants tels que TensorFlow et ONNX, ajustant automatiquement les modèles d’IA pour des performances optimales du processeur. Cela rationalise non seulement le processus de déploiement, mais élimine également le besoin d’ajustements manuels sur différentes plates-formes matérielles, simplifiant ainsi le flux de travail de développement et réduisant davantage la consommation d’énergie.

A Lire aussi  Où précommander Hogwarts Legacy au meilleur prix ?

Enfin, l’optimisation des modèles complète ces outils logiciels en affinant les modèles d’IA pour éliminer les paramètres inutiles, créant ainsi des modèles plus compacts et efficaces. Ce processus d’élagage maintient non seulement la précision, mais réduit également la complexité de calcul, réduisant ainsi l’énergie requise pour le traitement.

Choisir le bon calcul pour les charges de travail d’IA

Pour que les entreprises puissent tirer pleinement parti des avantages de l’IA tout en maintenant leur efficacité énergétique, il est essentiel d’adapter stratégiquement les capacités du processeur aux priorités spécifiques de l’IA. Cela implique plusieurs étapes :

  1. Identifiez les priorités de l’IA : commencez par identifier les modèles d’IA les plus critiques pour l’entreprise, en tenant compte de facteurs tels que le volume d’utilisation et l’importance stratégique.
  2. Définir les exigences de performances : établissez des critères de performances clairs, en vous concentrant sur des aspects essentiels tels que la latence et le temps de réponse, pour répondre efficacement aux attentes des utilisateurs.
  3. Évaluez les solutions spécialisées : recherchez des solutions de processeur qui non seulement excellent dans le type spécifique d’IA requis, mais qui répondent également aux références de performances définies, garantissant qu’elles peuvent gérer efficacement la charge de travail nécessaire.
  4. Évoluez avec efficacité : une fois les besoins de performances satisfaits, réfléchissez à l’évolutivité de la solution et à sa capacité à traiter un nombre croissant de requêtes. Optez pour des processeurs qui offrent le meilleur équilibre entre débit (inférences par seconde) et consommation d’énergie.
  5. Dimensionner correctement la solution : évitez l’écueil de la sélection de la solution la plus puissante et la plus coûteuse sans évaluer les besoins réels. Il est crucial de dimensionner correctement l’infrastructure pour éviter les dépenses inutiles et garantir qu’elle puisse être adaptée efficacement à mesure que la demande augmente.
  6. Tenir compte de la flexibilité future : il convient d’être prudent à l’égard des solutions trop spécialisées qui pourraient ne pas s’adapter aux changements futurs dans la demande ou la technologie de l’IA. Les entreprises devraient préférer des solutions polyvalentes capables de prendre en charge une gamme de tâches d’IA pour éviter une obsolescence future.

Les centres de données représentent actuellement environ 4 % de la consommation énergétique mondiale, un chiffre que la croissance de l’IA menace d’augmenter considérablement. De nombreux centres de données ont déjà déployé un grand nombre de GPU, qui consomment énormément d’énergie et souffrent de contraintes thermiques.

A Lire aussi  Les futurs produits Apple, le cours de plusieurs cryptomonnaies s’effondre, c’est le récap’ de la semaine

Par exemple, les GPU comme le H100 de Nvidia, doté de 80 milliards de transistors, poussent la consommation électrique à l’extrême, avec certaines configurations dépassant les 40 kW. En conséquence, les centres de données doivent recourir au refroidissement par immersion, un processus qui immerge le matériel dans un liquide thermiquement conducteur. Bien qu’elle soit efficace pour éliminer la chaleur et permettre des densités de puissance plus élevées, cette méthode de refroidissement consomme de l’énergie supplémentaire, obligeant les centres de données à allouer 10 à 20 % de leur énergie uniquement à cette tâche.

À l’inverse, les processeurs économes en énergie offrent une solution prometteuse pour répondre aux besoins croissants en électricité dus à l’expansion rapide des applications complexes d’IA. Des entreprises comme Scaleway et Oracle sont à la pointe de cette tendance en mettant en œuvre des méthodes d’inférence d’IA basées sur le processeur qui réduisent considérablement la dépendance aux GPU traditionnels. Ce changement favorise non seulement des pratiques plus durables, mais met également en valeur la capacité des processeurs à gérer efficacement des tâches d’IA exigeantes.

À titre d’illustration, Oracle a réussi à exécuter des modèles d’IA génératifs comportant jusqu’à sept milliards de paramètres, comme le modèle Llama 2, directement sur les processeurs. Cette approche a démontré des avantages significatifs en matière d’efficacité énergétique et de puissance de calcul, établissant ainsi une référence en matière de gestion efficace des charges de travail d’IA modernes sans consommation d’énergie excessive.

Adaptation des processeurs aux performances et aux besoins énergétiques

Compte tenu de l’efficacité énergétique supérieure des processeurs dans la gestion des tâches d’IA, nous devrions réfléchir à la meilleure façon d’intégrer ces technologies dans les centres de données existants. L’intégration de nouvelles technologies de processeur nécessite une prise en compte attentive de plusieurs facteurs clés pour garantir l’optimisation des performances et de l’efficacité énergétique :

  • Utilisation élevée : sélectionnez un processeur qui évite les conflits de ressources et élimine les goulots d’étranglement du trafic. Les attributs clés incluent un nombre élevé de cœurs, ce qui permet de maintenir les performances sous de lourdes charges. Cela permet également un traitement très efficace des tâches d’IA, offrant de meilleures performances par watt et contribuant aux économies d’énergie globales. Le processeur doit également fournir des quantités importantes de cache privé et une architecture prenant en charge les cœurs monothread.
  • Fonctionnalités spécifiques à l’IA : optez pour des processeurs dotés de fonctionnalités intégrées adaptées au traitement de l’IA, telles que la prise en charge des formats numériques d’IA courants tels que INT8, FP16 et BFloat16. Ces fonctionnalités permettent un traitement plus efficace des charges de travail d’IA, améliorant à la fois les performances et l’efficacité énergétique.
  • Considérations économiques : la mise à niveau vers des solutions basées sur un processeur peut être plus économique que la maintenance ou l’extension de systèmes basés sur un GPU, en particulier compte tenu de la faible consommation d’énergie et des besoins de refroidissement des processeurs.
  • Simplicité d’intégration : les processeurs offrent un moyen simple de mettre à niveau les capacités du centre de données. Contrairement aux exigences complexes liées à l’intégration de GPU haute puissance, les processeurs peuvent souvent être intégrés facilement à l’infrastructure de centre de données existante (y compris les systèmes de réseau et d’alimentation), simplifiant ainsi la transition et réduisant le besoin de modifications importantes de l’infrastructure.
A Lire aussi  un caméo d’un jeu électronique de 1981 s’est glissé dans le dernier épisode

En nous concentrant sur ces considérations clés, nous pouvons équilibrer efficacement les performances et l’efficacité énergétique de nos centres de données, garantissant ainsi une infrastructure rentable et évolutive, prête à répondre aux exigences informatiques des futures applications d’IA.

Faire progresser la technologie CPU pour l’IA

Les alliances industrielles en matière d’IA, telles que l’AI Platform Alliance, jouent un rôle crucial dans l’avancement de la technologie des processeurs pour les applications d’intelligence artificielle, en se concentrant sur l’amélioration de l’efficacité énergétique et des performances grâce à des efforts de collaboration. Ces alliances rassemblent un large éventail de partenaires issus de divers secteurs de la pile technologique, notamment les processeurs, les accélérateurs, les serveurs et les logiciels, pour développer des solutions interopérables répondant à des défis spécifiques en matière d’IA. Ce travail s’étend de l’informatique de pointe aux grands centres de données, garantissant que les déploiements d’IA sont à la fois durables et efficaces.

Ces collaborations sont particulièrement efficaces pour créer des solutions optimisées pour différentes tâches d’IA, telles que la vision par ordinateur, le traitement vidéo et l’IA générative. En mettant en commun l’expertise et les technologies de plusieurs entreprises, ces alliances visent à forger les meilleures solutions qui offrent des performances optimales et une efficacité énergétique remarquable.

Les efforts de coopération tels que l’AI Platform Alliance alimentent le développement de nouvelles technologies de processeur et de nouvelles conceptions de systèmes spécialement conçues pour gérer efficacement les exigences des charges de travail d’IA. Ces innovations conduisent à d’importantes économies d’énergie et améliorent les performances globales des applications d’IA, soulignant les avantages substantiels de la collaboration à l’échelle de l’industrie pour stimuler les progrès technologiques.

Jeff Wittich est directeur des produits chez Ampere Computing.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

Delhi signale le premier décès lié à la chaleur de l'année dans un contexte de température record

Delhi signale le premier décès lié à la chaleur de l'année dans un contexte de température record

La méthode 2-2-2 est la meilleure pour « brûler avec succès les graisses » en 6 semaines, selon cette diététicienne

La méthode 2-2-2 est la meilleure pour « brûler avec succès les graisses » en 6 semaines, selon cette diététicienne