Selon des prévisions récentes, l'IA consommera plus de la moitié de l'électricité des centres de données d'ici 2028. 1 À mesure que les charges de travail nécessitant une puissance de calcul importante, telles que l'IA générative, se développent, la demande totale d'électricité devrait également augmenter.
Découvrez les statistiques clés sur la consommation énergétique de l'IA et les meilleures pratiques issues des principaux chercheurs et organismes spécialisés en IA.
consommation énergétique des centres de données IA
Pour le graphique ci-dessus, nous avons compilé des données provenant de plusieurs organismes de recherche et d'analyses sectorielles portant sur la consommation d'énergie dans les centres de données et l'IA. Ces sources incluent des agences énergétiques internationales, des études universitaires et des initiatives de fournisseurs de technologies.
Voici comment les données ont été recueillies :
- Nous avons utilisé des chiffres et des projections futures issus d'analyses récentes de la consommation d'énergie qui estiment la consommation mondiale d'électricité dans les centres de données et sa croissance.
- Lorsque cela est possible, nous faisons référence aux méthodologies de mesure publiques des grands fournisseurs de cloud (par exemple, les données d'impact environnemental de Google Cloud) qui divulguent des indicateurs spécifiques, tels que l'énergie par inférence.
De nombreux rapports utilisent des unités de mesure ou une terminologie différentes, comme la part de l'IA et du ML dans la consommation mondiale d'électricité, la consommation d'énergie pour l'entraînement et l'inférence, et la part des centres de données dans la consommation mondiale d'électricité, ce qui rend leur comparaison difficile dans un seul graphique. Afin de permettre la présentation de toutes les valeurs dans un seul graphique, nous avons inclus les études utilisant des définitions et des unités de mesure comparables.
- Consommation mondiale d'électricité par les centres de données.
- La part de l'IA dans la consommation d'électricité des centres de données.
- Consommation d'électricité des centres de données aux États-Unis, afin de mettre en évidence les différences entre la consommation énergétique mondiale et américaine.
Recommandations pour la gestion de la consommation énergétique de l'IA
D'après des recherches récentes, la consommation énergétique de l'IA est désormais principalement due à l'inférence et dépend moins du nombre d'exécutions de modèles individuels que de l'échelle, des modes de déploiement et des inefficacités du système. Voici nos recommandations pour gérer efficacement la consommation énergétique de l'IA :
Privilégier l'efficacité de l'inférence à l'efficacité de l'entraînement
Les recherches montrent que plus de 80 % de la puissance de calcul de l'IA est désormais utilisée pour l'inférence.
- Considérez l'énergie par inférence (ou par jeton / par sortie) comme un objectif d'optimisation principal.
- Optimisez les chemins d'inférence avant d'investir dans des gains marginaux en matière d'efficacité d'entraînement.
- Concentrez vos efforts d'optimisation sur les points de terminaison à haute fréquence, et non sur les cas d'utilisation rares ou marginaux.
Mesurer et publier des indicateurs énergétiques par tâche, et non pas seulement des affirmations au niveau du modèle
D'après les recherches du MIT , la consommation d'énergie (électricité) par tâche varie selon qu'il s'agisse de texte, d'images ou de vidéos.
- Pipelines d'instrumentation pour mesurer l'énergie par tâche, y compris la surcharge non-GPU (mémoire, réseau, orchestration).
Évitez d'utiliser des modèles génératifs à usage général pour des tâches spécifiques.
La consommation énergétique plus élevée est étroitement liée aux modèles génératifs, utilisés pour des tâches comme la classification plutôt que des modèles spécialisés. La MIT Technology Review montre que les modèles dédiés à une tâche spécifique sont moins énergivores et moins polluants.
- Utilisez des modèles spécialisés ou distillés pour la classification, le classement, l'extraction et le routage.
- Réservez les grands modèles génératifs aux tâches qui nécessitent une génération ouverte.
- Introduire des cascades de modèles (du petit modèle au grand modèle, si nécessaire).
Réduire le gaspillage au niveau du système dans le service d'inférence
Des études sur les infrastructures montrent que les serveurs représentent environ 60 % de la consommation d'électricité des centres de données.
- Augmenter l'utilisation de l'accélérateur via :
- Traitement par lots
- Mise en cache
- Planification plus intelligente
- Éliminez les appels redondants entre les pipelines et les microservices.
- Privilégier la mise à l'échelle automatique en fonction de la demande plutôt que le provisionnement en période de pointe.
Considérez l'efficacité matérielle et l'efficacité énergétique (PUE) comme des problèmes logiciels.
- Concevoir des modèles qui s'adaptent efficacement aux contraintes de mémoire et de bande passante.
- Optimisez l'utilisation du matériel existant avant d'augmenter la capacité.
- Alignez les choix d'architecture du modèle avec les accélérateurs disponibles les plus économes en énergie.
Tenir compte de la consommation d'eau et du cycle de vie du matériel dans la conception du système
Les recherches de l'UNRIC montrent que la demande mondiale en eau liée à l'IA devrait augmenter de façon exponentielle.
- Privilégier les déploiements qui réduisent l'intensité du refroidissement et la consommation d'eau.
- Prolongez la durée de vie du matériel grâce à l'efficacité et à la réutilisation des modèles.
- Évitez les formations ou les redéploiements inutiles qui accélèrent le renouvellement du matériel.
Prévisions des effets économiques de l'IA, 2026
Les participants à l'étude ont fourni des estimations des principales variables économiques (PIB, consommation d'énergie, productivité, taux d'activité) selon des prévisions normales et trois scénarios explicites de progrès en IA (lent, modéré, rapide) :
- D’ici 2030, les participants estiment que la consommation d’électricité aux États-Unis pourrait représenter 2,3 % dans un scénario de croissance plus lente, 4,9 % dans un scénario de croissance modérée et 7,4 % dans un scénario d’expansion rapide, contre environ 1 % en 2024.
- D’ici 2050, ces parts devraient augmenter à 5 % (lent), 8,3 % (modéré) et 15 % (rapide).
- Les spécialistes de l'IA et les superprévisionnistes anticipent une demande encore plus forte en cas de croissance rapide en 2050, chacun estimant cette hausse à environ 19,5 %. 2
Revue technologique du MIT, 2025
La MIT Technology Review divise la consommation énergétique de l'IA en deux phases principales : l'entraînement des modèles et l'inférence. Elle soutient que l'inférence est désormais le principal facteur de consommation énergétique, car les fonctionnalités d'IA sont de plus en plus intégrées à notre quotidien, à travers de nombreux produits et services.
Cela met également en lumière un manque de transparence. La plupart des principaux fournisseurs de modèles d'IA « fermés » ne divulguent pas suffisamment d'informations pour estimer de manière fiable leur consommation énergétique totale ou leur empreinte carbone. 3
Électricité et demande totale :
- Centres de données américains : 4,4 % de la consommation totale d’électricité des États-Unis est destinée aux centres de données.
- L'IA dans les centres de données américains : les serveurs spécifiques à l'IA ont utilisé environ 53 à 76 térawattheures (TWh) en 2024, et les projections suggèrent 165 à 326 TWh d'ici 2028.
Entraînement vs inférence :
- Part de l'inférence : on estime que 80 à 90 % de la puissance de calcul de l'IA est utilisée pour l'inférence.
- Exemple d'énergie d'entraînement : GPT-4 l'entraînement est décrit comme étant d'environ 50 GWh.
Énergie par tâche (consommation d'électricité) :
- Texte (Llama 3.1 8B) : ~114 joules par réponse en tenant compte de la surcharge non-GPU.
- Texte (Llama 3.1 405B) : ~6 706 joules par réponse avec surcharge.
- Images (Stable Diffusion 3 Medium, 1024×1024) : ~2 282 joules au total ; des étapes plus élevées peuvent augmenter ce total à ~4 402 joules.
- Vidéo (exemples CogVideoX) : ~109 000 joules pour une courte sortie de faible qualité ; ~3,4 millions de joules pour une vidéo de 5 secondes de meilleure qualité.
Émissions liées aux infrastructures et au réseau électrique :
- L'intensité carbone de l'électricité consommée dans les centres de données est supérieure de 48 % à la moyenne américaine.
- Les systèmes de refroidissement des centres de données peuvent consommer de grandes quantités d'eau, parfois même de l'eau potable.
Agence internationale de l'énergie, 2025
L'AIE analyse les besoins énergétiques de l'IA à travers le prisme des centres de données et de leurs composants. Elle détaille la consommation d'électricité au sein d'un centre de données et offre une perspective mondiale sur la croissance de cette consommation. 4
Consommation mondiale d'électricité des centres de données :
- On estime cette consommation à environ 415 TWh en 2024, soit environ 1,5 % de la consommation mondiale d'électricité.
- On prévoit qu'elle atteindra environ 945 TWh d'ici 2030, soit un peu moins de 3 % de la consommation mondiale d'électricité dans le scénario de référence de l'AIE.
Consommation électrique des centres de données par type d'équipement :
- Serveurs : environ 60 % de la demande en électricité dans les centres de données modernes (variable selon le type).
- Systèmes de stockage : environ 5 %.
- Équipements de réseau : jusqu'à 5 %.
- Systèmes de refroidissement et contrôle environnemental : environ 7 % dans les centres de données hyperscale efficaces et plus de 30 % dans les centres de données d'entreprise moins efficaces.
Figure 1 : Graphique montrant les données de 2024 sur la part de la consommation d'électricité en fonction du type de centre de données et d'équipement.
Google Nuage, 2025
L'article Google présente une méthodologie permettant de mesurer l'impact environnemental de l'inférence par IA pour les requêtes Gemini, notamment la consommation d'électricité, les émissions de carbone et la consommation d'eau. Il présente des médianes par requête et fait état d'améliorations significatives de l'efficacité au cours des douze derniers mois. 5
Impacts médians par invite (invite textuelle Gemini Apps) :
- 0,24 Wh d'énergie
- 0,03 gCO₂e émissions
- 0,26 millilitres d'eau
Allégations d'amélioration de l'efficacité
- Au cours des 12 derniers mois, Google a affirmé que l'énergie par message médian avait diminué de 33 fois et que l'empreinte carbone totale avait diminué de 44 fois .
efficacité et infrastructure des centres de données
- L'efficacité énergétique moyenne (PUE) de l'ensemble de la flotte est de 1,09 pour les centres de données Google.
- La TPU de dernière génération de Google, Ironwood, est présentée comme étant 30 fois plus économe en énergie que sa première TPU disponible publiquement.
Organisation Carbon Brief, 2025
Carbon Brief synthétise les données de l'Agence internationale de l'énergie (AIE). 6 et d'autres sources ont été intégrées à une série de graphiques présentant les impacts de référence, les projections de croissance et les risques de concentration régionale. Ce rapport souligne que le secteur, bien que de petite taille à l'échelle mondiale, connaît une croissance rapide et revêt une importance locale significative dans certaines zones. 7
Actions mondiales actuelles
- Les centres de données sont responsables d’un peu plus de 1 % de la demande mondiale d’électricité et de 0,5 % des émissions de CO₂ (voir figure 2).
Croissance
- Scénario central de l'AIE : la consommation d'électricité des centres de données devrait atteindre 945 TWh d'ici 2030.
- Part de l'IA dans la consommation d'énergie des centres de données : environ 5 % à 15 % récemment, potentiellement 35 % à 50 % d'ici 2030.
Exemples de concentration régionale :
- Irlande : Environ 21 % de l’électricité nationale est utilisée pour les centres de données, et potentiellement 32 % d’ici 2026.
- Virginie (États-Unis) : 26 % de l'électricité consommée par les centres de données (selon la source).
Mix d'alimentation électrique pour les centres de données (mondial)
- Combustibles fossiles : près de 60 %
- Énergies renouvelables : 27 %
- Nucléaire : 15 %
Figure 2 : Basée sur le Global Energy Review 2025 de l'AIE et son rapport sur l'énergie et l'IA, cette figure compare la consommation d'électricité (TWh) et les émissions de CO₂ (MtCO₂) des centres de données mondiaux en 2024 avec celles d'autres secteurs.
Centre régional d'information des Nations Unies pour l'Europe occidentale (UNRIC), 2025
L'UNRIC évalue l'impact environnemental de l'IA sur l'ensemble de son cycle de vie : logiciel (formation, déploiement, inférence, maintenance) et matériel (matériaux, fabrication, construction, déchets électroniques). Elle souligne que la consommation d'électricité et d'eau des centres de données constitue un impact direct et préconise des mesures politiques visant à améliorer la transparence et la responsabilisation. 8
Statistiques et répartition par catégorie (électricité, eau, cycle de vie) : Cet article privilégie les catégories aux données numériques dans les sections extraites. Il classe explicitement les impacts de l’IA en effets directs, indirects et d’ordre supérieur . Voici quelques-unes des principales conclusions :
- Catégories d'impact environnemental
- Directement : consommation d'électricité et d'eau, émissions de gaz à effet de serre, extraction minière, pollution et déchets électroniques.
- Indirectes : Émissions provenant des applications et services utilisant l'IA.
- Niveau supérieur : Amplification des inégalités et des problèmes liés à des données d’entraînement biaisées ou de mauvaise qualité.
- Centres de données et utilisation des ressources
- Les centres de données consomment de grandes quantités d'électricité, dont une grande partie est encore fournie par des combustibles fossiles.
- Des quantités importantes d'eau sont nécessaires pour les systèmes de refroidissement et la construction.
- La demande mondiale en eau liée à l'IA devrait atteindre 4,2 à 6,6 milliards de mètres cubes d'ici 2027 , dépassant ainsi la consommation annuelle d'eau du Danemark.
- La fabrication d'un ordinateur de 2 kilogrammes peut nécessiter environ 800 kilogrammes de matières premières , dont des minéraux rares.
- Consommation et croissance de l'électricité
- Une requête ChatGPT utilise environ 10 fois plus d'électricité qu'une recherche Google , selon les estimations de l'AIE.
- L'IA et l'apprentissage automatique représentaient moins de 0,2 % de la consommation mondiale d'électricité et moins de 0,1 % des émissions mondiales en 2021 , mais la demande augmente rapidement.
- Certaines entreprises technologiques font état d'une croissance annuelle de plus de 100 % de la demande en puissance de calcul pour l'entraînement et l'inférence de l'IA.
- Expansion des centres de données
- Les centres de données représentaient environ 1 % de la demande mondiale d'électricité en 2022 .
- En Irlande, les centres de données ont représenté 17 % de la consommation nationale d'électricité en 2022.
- Le nombre de centres de données dans le monde est passé de 500 000 en 2012 à environ 8 millions aujourd'hui .
Actualités du MIT sur l'impact environnemental de l'IA générative, 2025
MIT News explique pourquoi l'IA générative peut être gourmande en ressources et établit une distinction entre l'entraînement et l'inférence. L'article souligne la densité de puissance, les problèmes de fiabilité du réseau électrique et le manque d'incitations pour les utilisateurs à réduire leur consommation lorsque les impacts sont invisibles. 9
Densité de puissance
- Un cluster d'entraînement d'IA générative peut consommer 7 à 8 fois plus d'énergie qu'une charge de travail informatique typique.
consommation électrique des centres de données
- La consommation mondiale d'électricité des centres de données était estimée à 460 TWh en 2022 et devrait atteindre environ 1 050 TWh d'ici 2026 .
Exemple d'entraînement de modèle
- L'entraînement de GPT-3 a été estimé à 1 287 MWh et à environ 552 tonnes de CO₂.
Rapport sur la consommation énergétique des centres de données aux États-Unis, 2024
Ce rapport estime la consommation historique d'électricité des centres de données américains et propose des scénarios jusqu'en 2028. Il établit un lien explicite entre l'accélération de la croissance observée après 2017 et l'utilisation accrue des serveurs, notamment des unités de traitement graphique (GPU) pour exécuter les modèles d'intelligence artificielle. 10
Consommation totale d'électricité des centres de données aux États-Unis :
- ~ 60 TWh (2014–2016) , relativement stable.
- 76 TWh d'ici 2018 , soit environ 1,9 % de la consommation d'électricité des États-Unis.
- 176 TWh d'ici 2023 , soit environ 4,4 % de la consommation d'électricité des États-Unis.
Scénarios pour 2028 :
- De 325 à 580 TWh d'ici 2028.
- Équivalent à 6,7 % à 12,0 % de la consommation d'électricité américaine prévue en 2028.
Conducteurs et catégories :
- La croissance est portée par les serveurs à accélération GPU pour l'intelligence artificielle, qui représentent désormais une part importante du parc installé.
- Il décrit des stratégies d'efficacité qui ont permis de maintenir la demande à un niveau stable, notamment l'amélioration des systèmes de refroidissement, la gestion de l'énergie, des taux d'utilisation plus élevés et la réduction de la consommation d'énergie en veille.
Revue technologique du MIT, 2023
La MIT Technology Review rend compte de l'une des premières tentatives de quantification de la consommation énergétique et des émissions de carbone de l'IA lors de son utilisation quotidienne (inférence), et non plus seulement lors de son entraînement. Cet article s'appuie sur une étude préliminaire menée par des chercheurs de Hugging Face et de l'Université Carnegie Mellon.
L'étude montre que si l'entraînement de grands modèles d'IA est extrêmement énergivore, l'essentiel de l'empreinte carbone d'un modèle d'IA sur l'ensemble de son cycle de vie provient de son utilisation. Les modèles populaires étant déployés des millions, voire des milliards de fois, les émissions liées à l'inférence quotidienne peuvent rapidement dépasser celles de l'entraînement. 11
Intensité énergétique et carbone par tâche :
Les chercheurs ont mesuré la consommation d'énergie pour 10 tâches d'IA courantes sur la plateforme Hugging Face, en testant 88 modèles différents et en exécutant 1 000 requêtes par tâche à l'aide de l'outil de mesure Code Carbon. Voici les principales comparaisons :
- Génération d'images : La génération d'une seule image avec un modèle puissant consomme à peu près la même énergie que la charge complète d'un smartphone.
- Générer 1 000 images avec un modèle comme Stable Diffusion XL produit des émissions de CO₂ comparables à celles d'un trajet d'environ 6,6 km en voiture à essence.
- La génération d'images est de loin la tâche d'IA la plus énergivore et la plus polluante en termes d'émissions de carbone.
- Génération de texte : La génération de texte est nettement moins énergivore.
- La production de 1 000 textes ne consomme qu'environ 16 % de la batterie d'un smartphone.
- Le modèle de texte le moins émetteur de carbone étudié a émis autant que l'équivalent de 0,0006 miles en voiture.
Taille du modèle et spécialisation des tâches :
L'étude met en évidence un écart d'efficacité majeur entre les modèles génératifs à usage général et les modèles spécifiques à une tâche :
- Les grands modèles génératifs consomment beaucoup plus d'énergie car ils sont conçus pour effectuer de nombreuses tâches (générer, classifier, synthétiser). Par exemple, l'utilisation d'un modèle génératif pour classifier des critiques de films nécessite environ 30 fois plus d'énergie que l'utilisation d'un modèle plus petit , optimisé spécifiquement pour la classification des sentiments.
- Les modèles plus petits et spécialisés sont systématiquement moins émetteurs de carbone pour des applications spécifiques.
Émissions liées à l'utilisation vs émissions liées à l'entraînement :
Les chercheurs ont comparé les émissions liées à l'entraînement aux émissions cumulées liées à l'utilisation :
- Le modèle BLOOM le plus performant de Hugging Face a été dépassé après environ 590 millions d'utilisations.
- Pour les modèles extrêmement populaires comme ChatGPT , les émissions liées à l'utilisation pourraient dépasser celles liées à l'entraînement en quelques semaines, en raison du volume massif d'utilisateurs quotidiens.
- Cela s'explique par le fait que l'entraînement a lieu une seule fois, tandis que l'inférence se déroule en continu à grande échelle.
Implications plus larges et points de vue d'experts :
- Les experts notent que les émissions par tâche étaient plus élevées que prévu, ce qui soulève des inquiétudes à mesure que l'IA générative s'intègre dans les logiciels du quotidien ( courriel , recherche , traitement de texte).
- Les chercheurs soulignent que les modèles plus récents et plus grands sont nettement plus émetteurs de carbone que les systèmes d'IA d'il y a quelques années seulement.
FAQ
Les centres de données représentent déjà une part importante et croissante de la demande en électricité. Aux États-Unis, ils ont consommé environ 4,4 % de l'électricité totale en 2023, et les projections indiquent que leur consommation pourrait atteindre 426 térawattheures (TWh) d'ici 2030, soit une augmentation de 133 % par rapport à 2024. Cette croissance est en grande partie due aux charges de travail d'intelligence artificielle exécutées sur des serveurs accélérés.
Les serveurs dédiés à l'IA ont consommé entre 53 et 76 TWh en 2024 et devraient atteindre entre 165 et 326 TWh par an d'ici 2028. Dans le haut de cette fourchette, la consommation d'électricité liée à l'IA pourrait à elle seule alimenter environ 22 % des foyers américains.
Bien que l'entraînement de grands modèles soit énergivore, l'inférence est aujourd'hui le principal facteur de consommation énergétique de l'IA. Elle représente actuellement environ 80 à 90 % de la puissance de calcul de l'IA et devrait représenter environ 75 % de la demande énergétique totale de l'IA d'ici 2030, à mesure que les fonctionnalités d'IA s'intègrent aux produits et services du quotidien.
Une requête d'IA générative consomme généralement quatre à cinq fois plus d'énergie qu'une requête de moteur de recherche classique. Cet écart devient significatif à grande échelle, lorsque des millions, voire des milliards, de requêtes d'IA sont traitées quotidiennement.
À l'échelle mondiale, les centres de données ont consommé environ 415 TWh d'électricité en 2024. Bien que l'IA ne représente actuellement qu'une part minoritaire, certaines estimations prévoient que les centres de données pilotés par l'IA pourraient représenter jusqu'à 21 % de la demande énergétique mondiale totale d'ici 2030, en fonction des taux d'adoption et des améliorations en matière d'efficacité.
L'IA contribue aux émissions de carbone par sa consommation d'électricité et la production de matériel. Selon les estimations, son empreinte carbone annuelle pourrait atteindre 32,6 à 79,7 millions de tonnes de CO₂ d'ici 2025. 12
Oui. Les GPU et autres composants de calcul haute performance ont souvent une durée de vie opérationnelle courte, ce qui contribue à l'augmentation des déchets électroniques. Leur fabrication nécessite également de grandes quantités de matières premières, notamment des minéraux rares.
Plusieurs stratégies peuvent réduire considérablement l'empreinte de l'IA :
1. Héberger les charges de travail d'IA dans des régions à forte pénétration d'énergies renouvelables réduit l'intensité carbone.
2. Les systèmes logiciels peuvent être conçus pour adapter les charges de travail en fonction de l'intensité carbone en temps réel, en exécutant les tâches lorsque de l'électricité plus propre est disponible.
3. Améliorer l'efficacité du modèle et réduire les appels d'inférence redondants peut diminuer la demande en énergie sans sacrifier les performances.
Une mesure précise est essentielle pour gérer l'impact environnemental de l'IA. Les instituts de recherche peuvent réaliser des évaluations précises des émissions de carbone et de la consommation d'énergie liées aux charges de travail de l'IA, mais la plupart des fournisseurs d'IA fermés ne divulguent pas encore suffisamment de données. Des rapports standardisés permettraient aux organismes de réglementation, aux fournisseurs d'énergie et aux utilisateurs de mieux comprendre et de gérer la consommation d'énergie liée à l'IA.
La gestion de l'impact de l'IA sur l'énergie, l'eau et les émissions nécessite une collaboration entre les entreprises technologiques, les chercheurs, les fournisseurs d'énergie et les décideurs politiques. Une planification coordonnée peut contribuer à garantir que l'IA continue d'apporter des avantages économiques et sociaux sans augmenter de manière disproportionnée les coûts énergétiques, les émissions ou la pression sur les ressources.
Soyez le premier à commenter
Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.