Les participants verront le centre de données d’IA du réseau SK pendant le Congrès mondial mobile à Barcelone. L’IA dépend entièrement des centres de données et, d’ici 2030, selon l’Agence internationale de l’énergie, il pourrait consommer 3% de l’électricité mondiale. Photo: AFP / Fichier
« >
Les participants verront le centre de données d’IA du réseau SK pendant le Congrès mondial mobile à Barcelone. L’IA dépend entièrement des centres de données et, d’ici 2030, selon l’Agence internationale de l’énergie, il pourrait consommer 3% de l’électricité mondiale. Photo: AFP / Fichier
L’industrie de l’intelligence artificielle se précipite pour réduire la consommation d’énergie à grande échelle grâce à de meilleurs systèmes de refroidissement, des puces informatiques plus efficaces et une programmation plus intelligente.
L’IA dépend entièrement des centres de données et, d’ici 2030, selon l’Agence internationale de l’énergie, il pourrait consommer 3% de l’électricité mondiale. C’est deux fois plus que ce qu’ils utilisent aujourd’hui.
Les experts de la société de conseil américaine McKinsey expliquent la concurrence pour construire suffisamment de centres de données pour suivre la croissance rapide de l’IA, avertissant que le monde se dirige vers une pénurie de puissance.
« Il existe plusieurs façons de résoudre le problème », a expliqué Mosharaf Choudhry, professeur d’informatique à l’Université du Michigan.
Les entreprises peuvent créer plus de fournitures d’énergie – de temps en temps, et le géant de l’IA examine déjà le monde.
Chowdhury estime que ce défi peut être relevé par des solutions « intelligentes » à tous les niveaux, du matériel physique au logiciel d’IA lui-même.
Par exemple, son laboratoire a développé un algorithme qui calcule avec précision la quantité d’électricité dont chaque puce AI a besoin, réduisant la consommation d’énergie de 20 à 30%.
Solution « intelligente »
Il y a vingt ans, l’exploitation d’un centre de données qui couvre les systèmes de refroidissement et d’autres infrastructures nécessite autant d’énergie que l’exécution du serveur lui-même.
Aujourd’hui, les opérations n’utilisent que 10% de ce que les serveurs consomment, explique Gareth Williams du cabinet de conseil Arup.
Cela se concentre principalement sur l’efficacité énergétique. Aujourd’hui, de nombreux centres de données utilisent des capteurs alimentés par AI pour contrôler la température de certaines zones plutôt que de refroidir uniformément l’ensemble du bâtiment.
Cela permet une optimisation en temps réel de la consommation d’eau et d’électricité, selon Pankaj Sakudeva de McKinsey.
Pour beaucoup, le changeur de jeu est le refroidissement du liquide, en remplaçant le climatiseur avides d’énergie rugissant par un liquide de refroidissement qui circule directement à partir du serveur.
« Tous les grands joueurs regardent cela », a déclaré Williams. En effet, les dernières puces d’IA d’entreprises comme NVIDIA consomment 100 fois plus d’électricité que les serveurs il y a 20 ans.
AWS, l’activité de cloud computing de pointe d’Amazon, a déclaré la semaine dernière qu’elle avait développé sa propre méthode liquide pour refroidir les GPU NVIDIA sur les serveurs.
« Nous n’avons pas suffisamment de capacité de refroidissement du débit pour soutenir notre échelle », a déclaré Dave Brown, vice-président des services AWS Calcul et Machine Learning, dans une vidéo YouTube.
États-Unis vs Chine
Pour Sachdeva de McKinsey, un facteur encourageant est que chaque nouvelle génération de puces informatiques est plus économe en énergie que la dernière. Une étude de Yi Ding de l’Université Purdue montre que les puces AI durent plus longtemps sans perdre des performances.
« Mais en encourageant les sociétés de semi-conducteurs à continuer à utiliser le même équipement plus longtemps, il est » difficile de convaincre les sociétés de semi-conducteurs de gagner de l’argent « , a ajouté Ding.
Cependant, même si l’IA est susceptible d’être moins chère lorsque la consommation de puces et d’énergie augmente, elle ne réduit pas la consommation totale d’énergie.
« La consommation d’énergie continuera d’augmenter », a prédit Ding malgré tous les efforts pour le limiter. « Mais ce n’est peut-être pas si rapide. »
Aux États-Unis, l’énergie est désormais considérée comme la clé de la compétitivité de l’IA contre la Chine.
En janvier, la startup chinoise Deepseek a dévoilé un modèle d’IA qui gère les meilleurs systèmes américains malgré l’utilisation de puces puissantes et même de faible énergie.
Les ingénieurs Deepseek l’ont atteint en programmant plus précisément le GPU et en sautant les étapes d’entraînement à forte intensité énergétique auparavant considérées comme essentielles.
La Chine a également peur de devenir une ligue en avance sur les États-Unis avec des énergies renouvelables et des sources d’énergie disponibles de l’énergie nucléaire.