Uma previsão recente indica que a inteligência artificial (IA) consumirá mais da metade da eletricidade dos data centers até 2028. 1 Com a expansão de cargas de trabalho que exigem alto poder computacional, como a IA generativa, espera-se também um aumento na demanda total de eletricidade.
Explore as principais estatísticas sobre o consumo de energia da IA e as melhores práticas derivadas de pesquisadores e agências líderes em IA.
consumo de energia do data center de IA
Para o gráfico acima, reunimos dados de diversas organizações de pesquisa e análises do setor que se concentram no consumo de energia em IA e centros de dados. Essas fontes incluem agências globais de energia, estudos acadêmicos e iniciativas de fornecedores de tecnologia.
Eis como os dados foram coletados:
- Utilizamos dados e projeções futuras de análises recentes de consumo de energia que estimam o uso global de eletricidade em centros de dados e seu crescimento.
- Quando disponíveis, fazemos referência a metodologias de medição publicamente acessíveis de grandes provedores de nuvem (por exemplo, os dados de impacto ambiental da Google Cloud) que divulgam métricas específicas, como energia por inferência.
Muitos relatórios utilizam unidades de medida ou terminologia diferentes, como a participação da IA e do ML na eletricidade global, o consumo de energia para treinamento versus inferência e a participação dos data centers na eletricidade global, o que dificulta a comparação em um único gráfico. Para garantir que todos os valores pudessem ser apresentados juntos em um único gráfico, incluímos os estudos que utilizaram definições e unidades de medida comparáveis:
- Consumo global de eletricidade por centros de dados.
- Participação da IA no consumo de eletricidade em data centers.
- Consumo de eletricidade por centros de dados nos Estados Unidos, para destacar as diferenças entre o uso de energia global e o dos EUA.
Recomendações para gerenciar o consumo de energia da IA
De acordo com pesquisas recentes, o consumo de energia da IA agora é dominado pela inferência e influenciado menos por execuções de modelos individuais do que pela escala, padrões de implantação e ineficiências do sistema. Aqui estão nossas recomendações para gerenciar o consumo de energia da IA de forma eficaz:
Priorize a eficiência da inferência em detrimento da eficiência do treinamento.
Pesquisas mostram que mais de 80% do poder computacional da IA agora é usado para inferência.
- Considere a energia por inferência (ou por token/por saída) como um objetivo primário de otimização.
- Otimize os caminhos de inferência antes de investir em ganhos marginais na eficiência do treinamento.
- Concentre os esforços de otimização em endpoints de alta frequência, e não em casos de uso raros ou de nicho.
Meça e publique métricas de energia por tarefa, não apenas afirmações em nível de modelo.
Com base em pesquisas do MIT , o consumo de energia (eletricidade) por tarefa varia entre tarefas de texto, imagem e vídeo.
- Instrumentar pipelines para medir o consumo de energia por tarefa, incluindo a sobrecarga não relacionada à GPU (memória, rede, orquestração).
Evite usar modelos generativos de propósito geral para tarefas específicas.
O maior consumo de energia está intimamente ligado a modelos generativos, que são usados para tarefas como classificação em vez de modelos especializados. A MIT Technology Review mostra que modelos específicos para cada tarefa são menos intensivos em carbono e energia.
- Utilize modelos especializados ou simplificados para classificação, ranqueamento, extração e roteamento.
- Reserve modelos generativos grandes para tarefas que exigem geração ilimitada.
- Introduza cascatas de modelos (do modelo pequeno para o modelo grande, se necessário).
Reduzir o desperdício em nível de sistema no serviço de inferência
Estudos de infraestrutura mostram que os servidores representam cerca de 60% do consumo de eletricidade de um data center.
- Aumentar a utilização do acelerador através de:
- Loteamento
- Armazenamento em cache
- Agendamento mais inteligente
- Elimine chamadas redundantes em pipelines e microsserviços.
- Implemente o dimensionamento automático com base na demanda, em vez do provisionamento para picos de demanda.
Trate a eficiência do hardware e a Eficácia do Uso de Energia (PUE) como questões de software.
- Projetar modelos que se adaptem de forma eficiente às restrições de memória e largura de banda.
- Maximize a utilização do hardware existente antes de expandir a capacidade.
- Alinhe as escolhas de arquitetura do modelo com os aceleradores disponíveis mais eficientes em termos de energia.
Considere o consumo de água e o ciclo de vida do hardware no projeto do sistema.
Pesquisas da UNRIC mostram que a demanda global de água relacionada à inteligência artificial deverá aumentar exponencialmente.
- Dê preferência a soluções que reduzam a intensidade do resfriamento e o consumo de água.
- Prolongue a vida útil do hardware através da eficiência e reutilização de modelos.
- Evite treinamentos ou realocações desnecessárias que acelerem a rotatividade de equipamentos.
Previsão dos impactos econômicos da IA em 2026
Os participantes do estudo forneceram estimativas de variáveis econômicas importantes (PIB, consumo de energia, produtividade, participação na força de trabalho) sob expectativas normais e três cenários explícitos de progresso da IA (lento, moderado, rápido):
- Até 2030, os participantes estimam que o consumo de eletricidade nos EUA poderá representar 2,3% em um cenário de crescimento mais lento, 4,9% em um cenário de crescimento moderado e 7,4% em um cenário de expansão rápida, em comparação com aproximadamente 1% em 2024.
- Até 2050, prevê-se que essas participações aumentem para 5% (lento), 8,3% (moderado) e 15% (rápido).
- Especialistas em IA e superprevisores antecipam uma demanda ainda maior em 2050, com um crescimento acelerado, estimando um aumento de cerca de 19,5%. 2
MIT Technology Review, 2025
A MIT Technology Review divide o consumo de energia da IA em duas fases principais: treinamento do modelo e inferência da IA. Argumenta que a inferência é atualmente o principal fator de consumo de energia, pois os recursos de IA estão sendo incorporados ao cotidiano em diversos produtos e serviços.
Isso também evidencia uma lacuna de transparência. A maioria dos principais fornecedores de modelos de IA "fechados" não divulga informações suficientes para estimar com precisão seu consumo total de energia ou sua pegada de carbono. 3
Eletricidade e demanda total:
- Centros de dados nos EUA: 4,4% da eletricidade total dos EUA é destinada a centros de dados.
- Inteligência artificial em data centers dos EUA: servidores específicos para IA utilizaram entre 53 e 76 terawatts-hora (TWh) em 2024, e as projeções sugerem um consumo entre 165 e 326 TWh até 2028.
Treinamento versus inferência:
- Participação da inferência: Estima-se que 80% a 90% da computação de IA seja usada para inferência.
- Exemplo de energia de treinamento: GPT-4 o treinamento é descrito como sendo de cerca de 50 GWh.
Energia por tarefa (consumo de eletricidade):
- Texto (Llama 3.1 8B): ~114 joules por resposta ao considerar a sobrecarga não relacionada à GPU.
- Texto (Llama 3.1 405B): ~6.706 joules por resposta com sobrecarga.
- Imagens (Difusão Estável 3 Médio, 1024×1024): ~2.282 joules no total; etapas mais altas podem elevar esse valor para ~4.402 joules.
- Vídeo (exemplos do CogVideoX): ~109.000 joules para uma saída curta de baixa qualidade; ~3,4 milhões de joules para um vídeo de 5 segundos de alta qualidade.
Emissões da infraestrutura e da rede elétrica:
- A intensidade de carbono da eletricidade gerada nos centros de dados é 48% maior do que a média dos EUA.
- Os sistemas de refrigeração em centros de dados podem usar grandes quantidades de água, às vezes água potável.
Agência Internacional de Energia, 2025
A AIE (Agência Internacional de Energia) analisa as demandas energéticas da IA (Inteligência Artificial) sob a perspectiva dos data centers e seus componentes. Ela fornece uma análise detalhada de onde a eletricidade é consumida dentro de um data center e oferece uma perspectiva global sobre o crescimento do consumo de eletricidade em data centers. 4
Consumo global de eletricidade proveniente de centros de dados:
- Estima-se que em 2024 sejam cerca de 415 TWh, o que representa aproximadamente 1,5% do consumo global de eletricidade.
- Prevê-se que atinja cerca de 945 TWh até 2030, pouco menos de 3% do consumo global de eletricidade no cenário base da AIE (Agência Internacional de Energia).
Consumo de eletricidade do data center por tipo de equipamento:
- Servidores : representam cerca de 60% da demanda de eletricidade em data centers modernos (varia conforme o tipo).
- Sistemas de armazenamento : cerca de 5%.
- Equipamentos de rede : até 5%.
- Sistemas de refrigeração e controle ambiental : cerca de 7% em data centers de hiperescala eficientes e mais de 30% em data centers corporativos menos eficientes.
Figura 1: Gráfico mostrando os dados de 2024 da participação do consumo de eletricidade com base no tipo de centro de dados e equipamento.
Google Nuvem, 2025
Google publicou uma metodologia para medir o impacto ambiental da inferência de IA para prompts do Gemini, incluindo eletricidade, emissões de carbono e consumo de água. Apresenta medianas por prompt e alega melhorias significativas de eficiência em um período recente de 12 meses. 5
Impactos médios por estímulo (estímulo de texto do Gemini Apps):
- 0,24 Wh de energia
- Emissões de 0,03 gCO₂e
- 0,26 mililitros de água
Alegações de melhoria de eficiência
- Nos últimos 12 meses, Google afirmou que a energia por prompt mediano caiu 33 vezes e a pegada de carbono total caiu 44 vezes .
Eficiência e infraestrutura do data center
- A eficiência média de uso de energia (PUE) em toda a frota é de 1,09 para Google data centers.
- A Ironwood, a TPU de última geração da Google, é considerada 30 vezes mais eficiente em termos de energia do que a primeira TPU disponibilizada ao público.
Organização Carbon Brief, 2025
O Carbon Brief sintetiza a Agência Internacional de Energia (IEA). 6 e outras fontes em um conjunto de gráficos que mostram os impactos de referência, as projeções de crescimento e os riscos de concentração regional. Isso destaca que o setor é pequeno globalmente hoje, mas está crescendo rapidamente e é localmente significativo em algumas redes. 7
Participações globais atuais
- Os centros de dados são responsáveis por pouco mais de 1% da demanda global de eletricidade e 0,5% das emissões de CO₂ (ver Figura 2).
Crescimento
- Cenário central da AIE: O consumo de eletricidade dos centros de dados aumenta para 945 TWh até 2030.
- A participação da IA no consumo de energia dos data centers: aproximadamente de 5% a 15% recentemente, podendo chegar a 35% a 50% até 2030.
Exemplos de concentração regional:
- Irlanda: Cerca de 21% da eletricidade nacional é utilizada em centros de dados, podendo chegar a 32% até 2026.
- Virgínia (EUA): 26% da eletricidade consumida por centros de dados (conforme citado).
Combinação de fontes de alimentação para data centers (global)
- Combustíveis fósseis: quase 60%
- Energias renováveis: 27%
- Nuclear: 15%
Figura 2: Com base no Relatório Global de Energia 2025 da AIE e em seu relatório sobre Energia e IA, esta figura compara o consumo de eletricidade (TWh) e as emissões de CO₂ (MtCO₂) de data centers globais em 2024 com os de outros setores.
Centro Regional de Informação das Nações Unidas para a Europa Ocidental (UNRIC), 2025
O UNRIC analisa o impacto ambiental da IA em todo o seu ciclo de vida: software (treinamento, implantação, inferência, manutenção) e hardware (materiais, fabricação, construção, resíduos eletrônicos). Enfatiza que o consumo de eletricidade e o uso de água em data centers são impactos diretos e defende medidas políticas para melhorar a transparência e a responsabilização. 8
Estatísticas e detalhamento por categoria (eletricidade, água, categorias do ciclo de vida): Este artigo é mais categórico do que numérico nas seções extraídas. Ele agrupa explicitamente os impactos da IA em efeitos diretos, indiretos e de ordem superior . Aqui estão algumas das principais conclusões:
- Categorias de impacto ambiental
- Impactos diretos: consumo de eletricidade e água, emissões de gases de efeito estufa, extração mineral, poluição e lixo eletrônico.
- Indireto: Emissões provenientes de aplicações e serviços com inteligência artificial.
- Ordem superior: Amplificação das desigualdades e problemas relacionados a dados de treinamento tendenciosos ou de baixa qualidade.
- Centros de dados e utilização de recursos
- Os centros de dados consomem grandes quantidades de eletricidade, grande parte dela ainda fornecida por combustíveis fósseis.
- São necessárias quantidades significativas de água para sistemas de refrigeração e construção.
- A demanda global de água relacionada à inteligência artificial deverá atingir entre 4,2 e 6,6 bilhões de metros cúbicos até 2027 , ultrapassando o consumo anual de água da Dinamarca.
- A produção de um computador de 2 quilos pode exigir cerca de 800 quilos de matérias-primas , incluindo minerais raros.
- Uso e crescimento da eletricidade
- Uma consulta ChatGPT usa cerca de 10 vezes mais eletricidade do que uma pesquisa Google , de acordo com a estimativa da IEA.
- A inteligência artificial e o aprendizado de máquina representaram menos de 0,2% do consumo global de eletricidade e menos de 0,1% das emissões globais em 2021 , mas a demanda está aumentando rapidamente.
- Algumas empresas de tecnologia relatam um crescimento anual de mais de 100% na demanda por computação para treinamento e inferência de IA.
- Expansão de centros de dados
- Os centros de dados representaram cerca de 1% da demanda global de eletricidade em 2022 .
- Na Irlanda, os centros de dados representaram 17% do consumo nacional de eletricidade em 2022.
- O número de centros de dados em todo o mundo cresceu de 500.000 em 2012 para cerca de 8 milhões atualmente .
Notícias do MIT sobre o impacto ambiental da IA generativa em 2025.
O MIT News explica por que a IA generativa pode consumir muitos recursos e distingue entre treinamento e inferência. Destaca a densidade de potência, os problemas de confiabilidade da rede elétrica e a falta de incentivos para que os usuários reduzam o consumo quando os impactos são invisíveis. 9
Densidade de potência
- Um cluster de treinamento de IA generativa pode consumir de 7 a 8 vezes mais energia do que uma carga de trabalho computacional típica.
Consumo de eletricidade do data center
- O consumo global de eletricidade em data centers foi estimado em 460 TWh em 2022 e projeta-se em cerca de 1.050 TWh até 2026 .
Exemplo de treinamento de modelo
- O treinamento do GPT-3 consumiu cerca de 1.287 MWh e emitiu aproximadamente 552 toneladas de CO₂.
Relatório sobre o consumo de energia em data centers nos Estados Unidos, 2024
Este relatório estima o consumo histórico de eletricidade em data centers nos EUA e fornece projeções até 2028. Ele relaciona explicitamente o ponto de inflexão do crescimento pós-2017 a servidores de alta velocidade, incluindo unidades de processamento gráfico (GPUs) usadas para executar modelos de inteligência artificial. 10
Consumo total de eletricidade dos data centers nos EUA:
- ~ 60 TWh (2014–2016) , relativamente estável.
- 76 TWh em 2018 , cerca de 1,9% do consumo de eletricidade dos EUA.
- 176 TWh até 2023 , o que representa cerca de 4,4% do consumo de eletricidade dos EUA.
Intervalo de cenários para 2028:
- De 325 a 580 TWh até 2028.
- Equivalente a 6,7% a 12,0% do consumo de eletricidade previsto nos EUA em 2028.
Pilotos e categorias:
- O crescimento é impulsionado por servidores com aceleração por GPU para inteligência artificial, que agora representam uma parcela significativa da base instalada.
- O texto descreve estratégias de eficiência que anteriormente mantinham a demanda estável, incluindo sistemas de refrigeração aprimorados, gerenciamento de energia, taxas de utilização mais altas e redução do consumo de energia ociosa.
MIT Technology Review, 2023
A MIT Technology Review relata uma das primeiras tentativas de quantificar o consumo de energia e as emissões de carbono da IA durante o uso cotidiano (inferência), em vez de se concentrar apenas no treinamento. O artigo é baseado em um estudo pré-publicado por pesquisadores da Hugging Face e da Universidade Carnegie Mellon.
O estudo mostra que, embora o treinamento de grandes modelos de IA consuma muita energia, a maior parte da pegada de carbono ao longo da vida útil de um modelo de IA provém de seu uso. Como os modelos populares são implantados milhões ou bilhões de vezes, as emissões diárias de inferência podem rapidamente ultrapassar as emissões de treinamento. 11
Intensidade energética e de carbono por tarefa:
Os pesquisadores mediram o consumo de energia em 10 tarefas comuns de IA na plataforma Hugging Face, testando 88 modelos diferentes e executando 1.000 comandos por tarefa usando a ferramenta de medição Code Carbon. As principais comparações são:
- Geração de imagens: Gerar uma única imagem com um modelo potente consome aproximadamente a mesma energia que carregar totalmente um smartphone.
- A geração de 1.000 imagens com um modelo como o Stable Diffusion XL produz emissões de CO₂ comparáveis às de um percurso de aproximadamente 6,6 quilômetros (4,1 milhas) em um carro a gasolina.
- A geração de imagens é, de longe, a tarefa de IA que mais consome energia e emite carbono, entre as que foram analisadas.
- Geração de texto: Gerar texto consome significativamente menos energia.
- Gerar 1.000 textos consome apenas cerca de 16% da carga de um smartphone.
- O modelo de texto menos intensivo em carbono estudado emitiu tanto quanto dirigir apenas 0,0006 milhas.
Tamanho do modelo e especialização da tarefa:
O estudo destaca uma grande lacuna de eficiência entre modelos generativos de propósito geral e modelos específicos para tarefas:
- Modelos generativos de grande porte consomem muito mais energia porque são projetados para executar diversas tarefas (gerar, classificar, resumir). Por exemplo, usar um modelo generativo para classificar críticas de filmes requer cerca de 30 vezes mais energia do que usar um modelo menor , ajustado especificamente para classificação de sentimentos.
- Modelos menores e especializados são consistentemente menos intensivos em carbono para aplicações específicas.
Emissões de utilização versus emissões de treinamento:
Os pesquisadores compararam as emissões do treinamento com as emissões cumulativas do uso:
- O maior modelo BLOOM da Hugging Face em termos de capacidade de treinamento foi superado após cerca de 590 milhões de utilizações.
- Para modelos extremamente populares como o ChatGPT , as emissões de uso podem exceder as emissões de treinamento em poucas semanas, devido ao enorme volume diário de usuários.
- Isso acontece porque o treinamento ocorre uma única vez, enquanto a inferência acontece continuamente em grande escala.
Implicações mais amplas e opiniões de especialistas:
- Especialistas observam que as emissões por tarefa foram maiores do que o esperado, aumentando as preocupações à medida que a IA generativa se torna incorporada em softwares do dia a dia ( e-mail , busca , processamento de texto).
- Os pesquisadores enfatizam que os modelos mais recentes e maiores são substancialmente mais intensivos em carbono do que os sistemas de IA de apenas alguns anos atrás.
Perguntas frequentes
Os data centers já representam uma parcela significativa e crescente da demanda de eletricidade. Nos Estados Unidos, os data centers consumiram cerca de 4,4% da eletricidade total em 2023, e as projeções sugerem que o consumo de eletricidade dos data centers americanos poderá atingir 426 terawatts-hora (TWh) até 2030, representando um aumento de 133% em relação aos níveis de 2024. Uma parte substancial desse crescimento é impulsionada por cargas de trabalho de IA executadas em servidores acelerados.
Servidores específicos para IA consumiram entre 53 e 76 TWh em 2024, e a projeção é de que esse consumo suba para 165 a 326 TWh por ano até 2028. No limite superior dessa faixa, o consumo de eletricidade relacionado à IA, por si só, poderia abastecer cerca de 22% dos domicílios dos EUA.
Embora o treinamento de modelos complexos consuma muita energia, a inferência é atualmente o principal fator de consumo energético da IA. Hoje, a inferência representa cerca de 80 a 90% da computação de IA e espera-se que represente cerca de 75% da demanda total de energia da IA até 2030, à medida que os recursos de IA forem incorporados a produtos e serviços do dia a dia.
Uma única consulta de IA generativa normalmente consome de 4 a 5 vezes mais energia do que uma solicitação de um mecanismo de busca tradicional. Essa diferença torna-se significativa em grande escala, quando milhões ou bilhões de consultas de IA são atendidas diariamente.
Globalmente, os centros de dados consumiram cerca de 415 TWh de eletricidade em 2024. Embora a IA represente atualmente uma parcela minoritária, algumas estimativas projetam que os centros de dados orientados por IA poderão representar até 21% da demanda global de energia até 2030, dependendo das taxas de adoção e das melhorias de eficiência.
A inteligência artificial contribui para as emissões de carbono por meio do consumo de eletricidade e da produção de hardware. Estimativas sugerem que a pegada de carbono anual da IA poderá atingir entre 32,6 e 79,7 milhões de toneladas de CO₂ até 2025. 12
Sim. As GPUs e outros componentes de computação de alto desempenho geralmente têm uma vida útil curta, o que leva a um problema crescente de lixo eletrônico (e-lixo). A fabricação desses componentes também requer grandes quantidades de matérias-primas, incluindo minerais raros.
Diversas estratégias podem reduzir significativamente o impacto da IA:
1. Hospedar cargas de trabalho de IA em regiões com alta penetração de energia renovável reduz a intensidade de carbono.
2. Os sistemas de software podem ser projetados para ajustar as cargas de trabalho com base na intensidade de carbono em tempo real, executando tarefas quando houver eletricidade mais limpa disponível.
3. Melhorar a eficiência do modelo e reduzir as chamadas de inferência redundantes pode diminuir a demanda de energia sem sacrificar o desempenho.
A medição precisa é essencial para gerenciar o impacto ambiental da IA. Instituições de pesquisa podem realizar avaliações precisas de carbono e energia das cargas de trabalho de IA, mas a maioria dos fornecedores de IA de código fechado ainda não divulga dados suficientes. Relatórios padronizados ajudariam reguladores, concessionárias de serviços públicos e usuários a entender e gerenciar melhor o consumo de energia relacionado à IA.
Gerenciar o impacto da IA na energia, água e emissões exige colaboração entre empresas de tecnologia, pesquisadores, concessionárias de serviços públicos e formuladores de políticas. O planejamento coordenado pode ajudar a garantir que a IA continue a gerar benefícios econômicos e sociais sem aumentar desproporcionalmente os custos de energia, as emissões ou a pressão sobre os recursos.
Seja o primeiro a comentar
Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.