
Presque tous les principaux développeurs d’intelligence artificielle se concentrent sur la création de modèles d’IA qui imitent la façon dont les humains raisonnent, mais de nouvelles recherches montrent que ces systèmes de pointe peuvent consommer beaucoup plus d’énergie, ce qui soulève encore des inquiétudes quant à la pression de l’IA sur le réseau électrique.
Le modèle d’inférence de l’IA a utilisé en moyenne 30 fois plus de puissance pour répondre à 1 000 invites écrites qu’un modèle sans cette capacité d’inférence, ou qu’un modèle alternatif avec celle-ci désactivée, selon les résultats publiés jeudi. Ce travail a été mené par le projet AI Energy Score, dirigé par Sasha Luccioni, chercheur scientifique chez Hugging Face, et Boris Gamazaychikov, responsable de la durabilité de l’IA chez Salesforce Inc.
Les chercheurs ont évalué 40 modèles d’IA ouverts et disponibles gratuitement, notamment des logiciels d’OpenAI, de Google d’Alphabet et de Microsoft. La différence de consommation d’énergie s’est avérée beaucoup plus importante pour certains modèles, comme celui de la startup chinoise Deep Seek. Une version allégée du modèle R1 de DeepSeek n’utilisait que 50 wattheures pour répondre aux invites lorsque l’inférence était désactivée. C’est à peu près la même quantité d’énergie nécessaire pour alimenter une ampoule de 50 watts pendant une heure. Avec l’inférence activée, le même modèle nécessitait 7 626 wattheures pour accomplir la tâche.
La demande énergétique en augmentation rapide nécessaire à l’IA fait l’objet d’une attention croissante. Alors que les entreprises technologiques s’empressent de construire des centres de données plus nombreux et plus grands pour prendre en charge l’IA, les observateurs du secteur ont exprimé leur inquiétude quant au fait que cela mettrait à rude épreuve le réseau électrique et augmenterait les coûts énergétiques pour les consommateurs. Une étude réalisée en septembre par Bloomberg a révélé que les prix de gros de l’électricité dans les zones proches des centres de données ont augmenté de 267 % au cours des cinq dernières années. Il existe également des inconvénients environnementaux, puisque Microsoft, Google et Amazon.com Inc. ont déjà reconnu que la construction de davantage de centres de données pourrait compliquer les objectifs climatiques à long terme.
Il y a plus d’un an, OpenAI a publié son premier modèle d’inférence appelé o1. Le logiciel précédent répondait aux requêtes presque instantanément, alors qu’o1 passait beaucoup de temps à calculer la réponse avant de répondre. De nombreuses autres sociétés d’IA ont depuis lancé des systèmes similaires, visant à résoudre des problèmes multi-étapes plus complexes dans des domaines tels que les sciences, les mathématiques et le codage.
Les systèmes d’inférence sont devenus une norme industrielle pour l’exécution de tâches plus complexes, mais peu de recherches ont été menées sur leurs besoins énergétiques. Selon les chercheurs, une grande partie de l’augmentation de la consommation d’énergie est due au fait que le modèle d’inférence génère davantage de texte lors de la réponse.
Le nouveau rapport vise à mieux comprendre l’évolution des demandes énergétiques de l’IA, a déclaré Luccioni. Nous espérons également que cela aidera les gens à mieux comprendre qu’il existe différents types de modèles d’IA adaptés à différentes actions. Toutes les requêtes n’ont pas besoin d’utiliser le système d’inférence d’IA le plus intensif en termes de calcul.
« Nous devons devenir plus intelligents dans la manière dont nous utilisons l’IA », a déclaré Luccioni. « Il est important de choisir le bon modèle pour la bonne tâche. »
Pour tester les différences de consommation d’énergie, les chercheurs ont exécuté tous les modèles sur le même matériel informatique. Ils ont utilisé les mêmes invites pour chacun, allant de questions simples telles que demander quelle équipe a remporté le Super Bowl au cours d’une année donnée à des problèmes mathématiques plus complexes. Nous avons également utilisé un outil logiciel appelé CodeCarbon pour suivre notre consommation d’énergie en temps réel.
Les résultats variaient considérablement. Les chercheurs ont découvert que l’un des modèles d’inférence Phi 4 de Microsoft consomme 9 462 wattheures avec l’inférence activée, contre environ 18 wattheures avec l’inférence désactivée. D’un autre côté, le plus grand modèle gpt-oss d’OpenAI ne présentait pas une différence aussi notable. Lorsque nous avons déduit le paramètre « Élevé » le plus gourmand en calcul, nous avons utilisé 8 504 wattheures, et lorsque nous avons abaissé le paramètre à « Faible », nous avons utilisé 5 313 wattheures.
OpenAI, Microsoft, Google et DeepSeek n’ont pas immédiatement répondu aux demandes de commentaires.
Google a publié une étude interne en août qui estimait que les invites de texte dans son service Gemini AI consommaient en moyenne 0,24 wattheures d’énergie, ce qui équivaut à peu près à regarder moins de neuf secondes de télévision. Google a déclaré que ce chiffre est « nettement inférieur à de nombreuses estimations publiques ».
Une grande partie des discussions autour de la consommation électrique de l’IA s’est concentrée sur les installations à grande échelle mises en place pour former des systèmes d’intelligence artificielle. Mais les entreprises technologiques consacrent de plus en plus de ressources à l’inférence, le processus d’exécution de systèmes d’IA après la formation. La poussée vers des modèles inférentiels en est une grande partie, car ces systèmes s’appuient de plus en plus sur l’inférence.
Récemment, certains leaders technologiques ont reconnu la nécessité de prendre en compte la consommation électrique de l’IA. Le PDG de Microsoft, Satya Nadella, a déclaré dans une interview en novembre que l’industrie devait obtenir une « licence sociale pour la consommation d’énergie » pour les centres de données d’IA. Cela nécessite que les entreprises technologiques utilisent l’IA pour faire le bien et favoriser une croissance économique plus large, a-t-il soutenu.

