Contáctanos
No se encontraron resultados.

Estadísticas de consumo energético de la IA

Sıla Ermut
Sıla Ermut
actualizado el Abr 6, 2026
Vea nuestra normas éticas

Un pronóstico reciente predice que la IA consumirá más de la mitad de la electricidad de los centros de datos para 2028. 1 A medida que se expanden las cargas de trabajo que requieren un uso intensivo de recursos computacionales, como la IA generativa, también se espera que aumente la demanda total de electricidad.

Explore las estadísticas clave sobre el consumo de energía de la IA y las mejores prácticas derivadas de los principales investigadores y agencias de IA.

consumo energético del centro de datos de IA

Loading Chart

Para elaborar el gráfico anterior, recopilamos datos de diversas organizaciones de investigación y análisis del sector centrados en el consumo energético en la IA y los centros de datos. Estas fuentes incluyen agencias energéticas internacionales, estudios académicos e iniciativas de proveedores de tecnología.

Así es como se recopilaron los datos:

  • Utilizamos cifras y proyecciones futuras de análisis recientes sobre el consumo de energía que estiman el uso global de electricidad en los centros de datos y su crecimiento.
  • Cuando están disponibles, hacemos referencia a metodologías de medición disponibles públicamente de grandes proveedores de nube (por ejemplo, datos de impacto ambiental de Google Cloud) que divulgan métricas específicas, como energía por inferencia.

Muchos informes utilizan distintas unidades de medida o terminología, como la proporción de electricidad global destinada a IA y ML, el consumo energético entre entrenamiento e inferencia, y la proporción de electricidad global destinada a centros de datos, lo que dificulta su comparación en un mismo gráfico. Para garantizar que todos los valores pudieran presentarse juntos en un solo gráfico, incluimos los estudios que utilizaron definiciones y unidades de medida comparables.

  • Consumo mundial de electricidad por parte de los centros de datos.
  • Porcentaje del consumo eléctrico de la IA en los centros de datos.
  • Consumo de electricidad de los centros de datos en Estados Unidos, para resaltar las diferencias entre el uso de energía a nivel mundial y en EE. UU.

Recomendaciones para gestionar el consumo energético de la IA

Según investigaciones recientes, el consumo energético de la IA ahora está dominado por la inferencia y se ve influenciado menos por las ejecuciones individuales de los modelos que por la escala, los patrones de implementación y las ineficiencias del sistema. A continuación, presentamos nuestras recomendaciones para gestionar eficazmente el consumo energético de la IA:

Priorizar la eficiencia de la inferencia sobre la eficiencia del entrenamiento.

Las investigaciones demuestran que más del 80% de la capacidad de procesamiento de la IA se utiliza actualmente para la inferencia.

  • Considere la energía por inferencia (o por token / por salida) como un objetivo de optimización principal.
  • Optimice las rutas de inferencia antes de invertir en mejoras marginales en la eficiencia del entrenamiento.
  • Centre los esfuerzos de optimización en los puntos finales de alta frecuencia, no en los casos de uso raros o de cola larga.

Mida y publique métricas de energía por tarea, no solo afirmaciones a nivel de modelo.

Según una investigación del MIT , el consumo de energía (electricidad) por tarea varía según se trate de tareas de texto, imagen o vídeo.

  • Instrumentar las tuberías para medir la energía por tarea, incluyendo la sobrecarga no relacionada con la GPU (memoria, redes, orquestación).

Evite utilizar modelos generativos de propósito general para tareas específicas.

El mayor consumo de energía está estrechamente relacionado con los modelos generativos, que se utilizan para tareas como la clasificación en lugar de modelos especializados. La revista MIT Technology Review muestra que los modelos específicos para cada tarea consumen menos energía y generan menos emisiones de carbono.

  • Utilice modelos especializados o simplificados para la clasificación, la jerarquización, la extracción y el enrutamiento.
  • Reserva los modelos generativos de gran tamaño para tareas que requieran una generación abierta.
  • Introduzca cascadas de modelos (desde el modelo pequeño al modelo grande, si es necesario).

Reduzca el desperdicio a nivel del sistema en la inferencia.

Los estudios de infraestructura muestran que los servidores representan aproximadamente el 60% del consumo eléctrico de los centros de datos.

  • Incrementar la utilización del acelerador mediante:
    • Agrupación
    • Almacenamiento en caché
    • Programación más inteligente
  • Elimine las llamadas redundantes en las canalizaciones y los microservicios.
  • Implementar el escalado automático en función de la demanda en lugar del aprovisionamiento para picos de demanda.

Tratar la eficiencia del hardware y la efectividad del uso de energía (PUE) como cuestiones de software.

  • Diseñar modelos que se ajusten de manera eficiente a las limitaciones de memoria y ancho de banda.
  • Maximice la utilización del hardware existente antes de aumentar la capacidad.
  • Alinear las opciones de arquitectura del modelo con los aceleradores disponibles que sean más eficientes energéticamente.

En el diseño del sistema, tenga en cuenta el consumo de agua y el ciclo de vida del hardware.

Un estudio de UNRIC muestra que se prevé que la demanda mundial de agua relacionada con la IA aumente exponencialmente.

  • Priorice las implementaciones que reduzcan la intensidad de la refrigeración y el consumo de agua.
  • Prolongue la vida útil del hardware mediante la optimización de modelos y la reutilización.
  • Evite la capacitación o redistribución innecesarias que aceleran la rotación de hardware.

Pronóstico de los efectos económicos de la IA, 2026

Los participantes del estudio proporcionaron estimaciones de variables económicas clave (PIB, consumo de energía, productividad, participación en la fuerza laboral) bajo expectativas normales y tres escenarios explícitos de progreso de la IA (lento, moderado, rápido):

  • Según las estimaciones de los participantes, para 2030 el consumo de electricidad en EE. UU. podría representar el 2,3 % en un escenario de crecimiento más lento, el 4,9 % en un escenario de crecimiento moderado y el 7,4 % en un escenario de rápida expansión, frente a aproximadamente el 1 % en 2024.
  • Se prevé que para 2050 estas cuotas aumenten al 5% (lento), 8,3% (moderado) y 15% (rápido).
  • Los especialistas en IA y los superpronosticadores anticipan una demanda aún mayor en el contexto de un rápido crecimiento en 2050, estimando cada uno alrededor del 19,5%. 2

Revista de Tecnología del MIT, 2025

La revista MIT Technology Review divide el consumo energético de la IA en dos fases principales: entrenamiento del modelo e inferencia de la IA. Argumenta que la inferencia es ahora el principal motor del consumo energético, ya que las funcionalidades de la IA se están integrando en la vida cotidiana a través de productos y servicios.

También pone de manifiesto una falta de transparencia. La mayoría de los principales proveedores de modelos de IA "cerrados" no divulgan información suficiente para estimar de forma fiable su consumo total de energía o su huella de carbono. 3

Electricidad y demanda total:

  • Centros de datos en EE. UU.: El 4,4% del consumo total de electricidad en EE. UU. se destina a los centros de datos.
  • Inteligencia artificial en los centros de datos de EE. UU.: Se estima que los servidores específicos para IA consumieron entre 53 y 76 teravatios-hora (TWh) en 2024, y las proyecciones sugieren entre 165 y 326 TWh para 2028.

Entrenamiento frente a inferencia:

  • Porcentaje de inferencia: se estima que entre el 80 % y el 90 % de la computación de IA se utiliza para la inferencia.
  • Ejemplo de energía de entrenamiento: el entrenamiento GPT-4 se describe como de aproximadamente 50 GWh.

Energía por tarea (consumo de electricidad):

  • Texto (Llama 3.1 8B): ~114 julios por respuesta teniendo en cuenta la sobrecarga que no es de la GPU.
  • Texto (Llama 3.1 405B): ~6706 julios por respuesta con sobrecarga.
  • Imágenes (Difusión estable 3, medio, 1024×1024): ~2282 julios en total; en pasos superiores se puede aumentar hasta ~4402 julios.
  • Vídeo (ejemplos de CogVideoX): ~109.000 julios para una salida corta de baja calidad; ~3,4 millones de julios para un vídeo de 5 segundos de mayor calidad.

Infraestructura y emisiones de la red eléctrica:

  • La intensidad de carbono del consumo eléctrico de los centros de datos es un 48 % superior a la media de Estados Unidos.
  • Los sistemas de refrigeración en los centros de datos pueden consumir grandes cantidades de agua, a veces agua potable.

Agencia Internacional de Energía, 2025

La AIE analiza las necesidades energéticas de la IA desde la perspectiva de los centros de datos y sus componentes. Proporciona un desglose del consumo eléctrico dentro de un centro de datos y ofrece una visión global del crecimiento del consumo eléctrico en estos centros. 4

Consumo mundial de electricidad procedente de centros de datos:

  • Se estima que en 2024 se consumirán unos 415 TWh, lo que representa aproximadamente el 1,5% del consumo mundial de electricidad.
  • Se prevé que alcance los ~945 TWh para 2030, lo que representa algo menos del 3% del consumo mundial de electricidad en el escenario base de la AIE.

Consumo eléctrico del centro de datos por tipo de equipo:

  • Servidores : representan alrededor del 60% de la demanda de electricidad en los centros de datos modernos (varía según el tipo).
  • Sistemas de almacenamiento : alrededor del 5%.
  • Equipos de red : hasta un 5%.
  • Sistemas de refrigeración y control ambiental : alrededor del 7 % en centros de datos hiperescalables eficientes y más del 30 % en centros de datos empresariales menos eficientes.

Figura 1: Gráfico que muestra los datos de 2024 sobre la proporción del consumo de electricidad según el centro de datos y el tipo de equipo.

Google Nube, 2025

Google publicó una metodología para medir el impacto ambiental de la inferencia de IA para las indicaciones de Gemini, incluyendo el consumo de electricidad, emisiones de carbono y agua. Presenta medianas por indicación y afirma mejoras significativas en la eficiencia durante un período reciente de 12 meses. 5

Impactos medianos por solicitud (solicitud de texto de Gemini Apps):

  • 0,24 Wh de energía
  • emisiones de 0,03 gCO₂e
  • 0,26 mililitros de agua

Afirmaciones sobre la mejora de la eficiencia

  • En los últimos 12 meses, Google afirmó que la energía por aviso medio se redujo en 33 veces y la huella de carbono total se redujo en 44 veces .

Eficiencia e infraestructura del centro de datos

  • La eficiencia promedio del uso de energía (PUE) de toda la flota es de 1,09 para los centros de datos Google.
  • Se afirma que Ironwood, la TPU de última generación de Google, es 30 veces más eficiente energéticamente que su primera TPU disponible para el público.

Organización Carbon Brief, 2025

Carbon Brief sintetiza la Agencia Internacional de Energía (AIE). Se recopilaron datos 6 fuentes y otras fuentes para crear una serie de gráficos que muestran los impactos iniciales, las proyecciones de crecimiento y los riesgos de concentración regional. Se destaca que el sector es pequeño a nivel mundial en la actualidad, pero está creciendo rápidamente y tiene una importancia local en algunas regiones. 7

Acciones globales actuales

  • Los centros de datos son responsables de poco más del 1% de la demanda mundial de electricidad y del 0,5% de las emisiones de CO₂ (véase la figura 2).

Crecimiento

  • Escenario central de la AIE: El consumo de electricidad de los centros de datos aumentará a 945 TWh para 2030.
  • Porcentaje de consumo energético de los centros de datos que corresponde a la IA: Aproximadamente entre el 5 % y el 15 % en la actualidad, con un potencial de entre el 35 % y el 50 % para 2030.

Ejemplos de concentración regional:

  • Irlanda: Alrededor del 21% de la electricidad nacional se utiliza para centros de datos, cifra que podría alcanzar el 32% en 2026.
  • Virginia (EE. UU.): 26 % de la electricidad consumida por los centros de datos (según la información citada).

Combinación de fuentes de alimentación para centros de datos (a nivel mundial)

  • Combustibles fósiles: Casi el 60%
  • Energías renovables: 27%
  • Nuclear: 15%

Figura 2: Basándose en el Informe Global de Energía 2025 de la AIE y su informe Energía e IA, esta figura compara el consumo de electricidad (TWh) y las emisiones de CO₂ (MtCO₂) de los centros de datos mundiales en 2024 con las de otros sectores.

Centro Regional de Información de las Naciones Unidas para Europa Occidental (UNRIC), 2025

UNRIC analiza la huella ambiental de la IA a lo largo de todo su ciclo de vida: software (entrenamiento, implementación, inferencia, mantenimiento) y hardware (materiales, fabricación, construcción, residuos electrónicos). Destaca que el consumo de electricidad y agua en los centros de datos son impactos directos y aboga por medidas políticas para mejorar la transparencia y la rendición de cuentas. 8

Estadísticas y desglose por categorías (electricidad, agua, categorías del ciclo de vida): Este artículo es más categórico que numérico en las secciones extraídas. Agrupa explícitamente los impactos de la IA en efectos directos, indirectos y de orden superior . Estos son algunos de los hallazgos clave:

  • Categorías de impacto ambiental
    • Directamente: Consumo de electricidad y agua, emisiones de gases de efecto invernadero, extracción de minerales, contaminación y residuos electrónicos.
    • Indirectas: Emisiones procedentes de aplicaciones y servicios basados en inteligencia artificial.
    • De orden superior: Amplificación de las desigualdades y los problemas relacionados con datos de entrenamiento sesgados o de mala calidad.
  • Centros de datos y uso de recursos
    • Los centros de datos consumen grandes cantidades de electricidad, mucha de la cual todavía proviene de combustibles fósiles.
    • Se requieren cantidades importantes de agua para los sistemas de refrigeración y la construcción.
    • Se prevé que la demanda mundial de agua relacionada con la IA alcance entre 4.200 y 6.600 millones de metros cúbicos para 2027 , superando el consumo anual de agua de Dinamarca.
    • La producción de un ordenador de 2 kilogramos puede requerir alrededor de 800 kilogramos de materias primas , incluidos minerales raros.
  • Uso y crecimiento de la electricidad
    • Según las estimaciones de la IEA, una consulta de ChatGPT consume aproximadamente 10 veces más electricidad que una búsqueda Google .
    • La inteligencia artificial y el aprendizaje automático representaron menos del 0,2 % del consumo mundial de electricidad y menos del 0,1 % de las emisiones mundiales en 2021 , pero la demanda está aumentando rápidamente.
    • Algunas empresas tecnológicas reportan un crecimiento anual superior al 100% en la demanda de computación para el entrenamiento y la inferencia de IA.
  • Expansión de los centros de datos
    • Los centros de datos representaron aproximadamente el 1% de la demanda mundial de electricidad en 2022 .
    • En Irlanda, los centros de datos representaron el 17% del consumo nacional de electricidad en 2022.
    • El número de centros de datos en todo el mundo ha crecido de 500.000 en 2012 a alrededor de 8 millones en la actualidad .

Noticias del MIT sobre el impacto ambiental de la IA generativa, 2025

MIT News explica por qué la IA generativa puede consumir muchos recursos y distingue entre entrenamiento e inferencia. Destaca la densidad de potencia, los problemas de fiabilidad de la red eléctrica y la falta de incentivos para que los usuarios reduzcan su consumo cuando los impactos son imperceptibles. 9

Densidad de potencia

  • Un clúster de entrenamiento de IA generativa podría consumir entre 7 y 8 veces más energía que una carga de trabajo informática típica.

Consumo eléctrico del centro de datos

  • El consumo mundial de electricidad de los centros de datos se cifró en 460 TWh en 2022 y se proyectó en aproximadamente 1.050 TWh para 2026 .

Ejemplo de entrenamiento del modelo

  • El entrenamiento del GPT-3 se estima en 1.287 MWh y unas 552 toneladas de CO₂.

Informe sobre el consumo energético de los centros de datos en Estados Unidos, 2024

Este informe estima el consumo histórico de electricidad de los centros de datos de EE. UU. y proporciona escenarios hasta 2028. Vincula explícitamente el punto de inflexión del crecimiento posterior a 2017 con los servidores acelerados, incluidas las unidades de procesamiento gráfico utilizadas para ejecutar modelos de IA. 10

Consumo total de electricidad de los centros de datos en EE. UU.:

  • ~ 60 TWh (2014–2016) , relativamente estable.
  • 76 TWh para 2018 , lo que representa aproximadamente el 1,9% del consumo de electricidad de EE. UU.
  • 176 TWh para 2023 , lo que representa aproximadamente el 4,4% del consumo de electricidad de EE. UU.

Rango de escenarios para 2028:

  • De 325 a 580 TWh para 2028.
  • Equivalente a entre el 6,7% y el 12,0% del consumo eléctrico previsto en Estados Unidos para 2028.

Conductores y categorías:

  • El crecimiento está impulsado por los servidores acelerados por GPU para inteligencia artificial, que ahora representan una parte significativa de la base instalada.
  • Describe estrategias de eficiencia que anteriormente mantuvieron la demanda estable, incluyendo sistemas de refrigeración mejorados, gestión de energía, mayores tasas de utilización y reducción del consumo de energía en reposo.

Revista de Tecnología del MIT, 2023

MIT Technology Review informa sobre uno de los primeros intentos de cuantificar el consumo de energía y las emisiones de carbono de la IA durante su uso cotidiano (inferencia), en lugar de centrarse únicamente en el entrenamiento. El artículo se basa en un estudio preliminar realizado por investigadores de Hugging Face y la Universidad Carnegie Mellon.

El estudio demuestra que, si bien el entrenamiento de grandes modelos de IA consume mucha energía, la mayor parte de la huella de carbono de un modelo de IA a lo largo de su vida útil proviene de su uso. Dado que los modelos más populares se implementan millones o miles de millones de veces, las emisiones diarias de inferencia pueden superar rápidamente las emisiones de entrenamiento. 11

Intensidad energética y de carbono por tarea:

Los investigadores midieron el consumo de energía en 10 tareas comunes de IA en la plataforma Hugging Face, probando 88 modelos diferentes y ejecutando 1000 solicitudes por tarea utilizando la herramienta de medición Code Carbon. Las comparaciones clave son:

  • Generación de imágenes: Generar una sola imagen con un modelo potente consume aproximadamente la misma energía que cargar completamente un teléfono inteligente.
    • Generar 1.000 imágenes con un modelo como Stable Diffusion XL produce emisiones de CO₂ comparables a las de conducir unos 6,6 kilómetros (4,1 millas) en un coche de gasolina.
    • La generación de imágenes es, con diferencia, la tarea de IA que más energía y emisiones de carbono consume de todas las que se han analizado.
  • Generación de texto: Generar texto requiere mucha menos energía.
    • Generar 1.000 mensajes de texto consume solo alrededor del 16% de la batería de un teléfono inteligente.
    • El modelo de texto menos intensivo en carbono estudiado emitió tanto como conducir tan solo 0,0006 millas.

Tamaño del modelo y especialización de tareas:

El estudio pone de relieve una importante brecha de eficiencia entre los modelos generativos de propósito general y los modelos específicos para cada tarea:

  • Los modelos generativos de gran tamaño consumen mucha más energía porque están diseñados para realizar múltiples tareas (generar, clasificar, resumir). Por ejemplo, usar un modelo generativo para clasificar reseñas de películas requiere aproximadamente 30 veces más energía que usar un modelo más pequeño optimizado específicamente para la clasificación de sentimientos.
  • Los modelos más pequeños y especializados generan sistemáticamente menos emisiones de carbono para aplicaciones específicas.

Emisiones por uso frente a emisiones por entrenamiento:

Los investigadores compararon las emisiones derivadas del entrenamiento con las emisiones acumuladas por el uso:

  • El modelo BLOOM más grande de Hugging Face, que permitía entrenar a Hugging Face, superó su límite tras aproximadamente 590 millones de usos.
  • En el caso de modelos extremadamente populares como ChatGPT , las emisiones derivadas del uso podrían superar las emisiones derivadas del entrenamiento en cuestión de semanas, debido al enorme volumen diario de usuarios.
  • Esto sucede porque el entrenamiento se realiza una sola vez, mientras que la inferencia se produce de forma continua a gran escala.

Implicaciones más amplias y opiniones de expertos:

  • Los expertos señalan que las emisiones por tarea fueron superiores a las esperadas, lo que genera preocupación a medida que la IA generativa se integra en el software cotidiano ( correo electrónico , búsqueda , procesamiento de textos).
  • Los investigadores destacan que los modelos más nuevos y de mayor tamaño generan muchas más emisiones de carbono que los sistemas de IA de hace tan solo unos años.

Preguntas frecuentes

Los centros de datos ya representan una parte significativa y creciente de la demanda de electricidad. En Estados Unidos, consumieron aproximadamente el 4,4 % de la electricidad total en 2023, y las proyecciones sugieren que el consumo eléctrico de los centros de datos en EE. UU. podría alcanzar los 426 teravatios-hora (TWh) para 2030, lo que representa un aumento del 133 % con respecto a los niveles de 2024. Una parte sustancial de este crecimiento se debe a las cargas de trabajo de IA que se ejecutan en servidores acelerados.

Se estima que los servidores específicos para IA consumieron entre 53 y 76 TWh en 2024, y se prevé que este consumo aumente a entre 165 y 326 TWh anuales para 2028. En el extremo superior de este rango, el consumo eléctrico relacionado con la IA por sí solo podría abastecer de energía a aproximadamente el 22 % de los hogares estadounidenses.

Si bien el entrenamiento de modelos complejos consume mucha energía, la inferencia es ahora el principal motor del consumo energético de la IA. Actualmente, la inferencia representa aproximadamente entre el 80 % y el 90 % de la computación en IA, y se prevé que para 2030 represente alrededor del 75 % de la demanda total de energía en IA, a medida que las funciones de IA se integren en productos y servicios cotidianos.

Una sola consulta de IA generativa suele consumir entre 4 y 5 veces más energía que una solicitud a un motor de búsqueda tradicional. Esta diferencia se vuelve significativa a gran escala, cuando se procesan millones o miles de millones de consultas de IA diariamente.

A nivel mundial, los centros de datos consumieron aproximadamente 415 TWh de electricidad en 2024. Si bien la IA representa actualmente una parte minoritaria, algunas estimaciones prevén que los centros de datos impulsados por IA representarán hasta el 21 % de la demanda energética mundial total para 2030, dependiendo de las tasas de adopción y las mejoras en la eficiencia.

La IA contribuye a las emisiones de carbono a través del consumo de electricidad y la producción de hardware. Se estima que la huella de carbono anual de la IA podría alcanzar entre 32,6 y 79,7 millones de toneladas de CO₂ para 2025. 12

Sí. Las GPU y otros componentes de computación de alto rendimiento suelen tener una vida útil corta, lo que genera un problema creciente de residuos electrónicos. La fabricación de estos componentes también requiere grandes cantidades de materias primas, incluidos minerales raros.

Varias estrategias pueden reducir significativamente el impacto de la IA:

1. Alojar las cargas de trabajo de IA en regiones con alta penetración de energías renovables reduce la intensidad de carbono.
2. Los sistemas de software pueden diseñarse para ajustar las cargas de trabajo en función de la intensidad de carbono en tiempo real, ejecutando las tareas cuando haya electricidad más limpia disponible.
3. Mejorar la eficiencia del modelo y reducir las llamadas de inferencia redundantes puede disminuir la demanda de energía sin sacrificar el rendimiento.

La medición precisa es fundamental para gestionar el impacto ambiental de la IA. Las instituciones de investigación pueden realizar evaluaciones precisas del consumo de carbono y energía de las cargas de trabajo de la IA, pero la mayoría de los proveedores de IA de código cerrado aún no divulgan datos suficientes. La presentación de informes estandarizados ayudaría a los reguladores, las empresas de servicios públicos y los usuarios a comprender y gestionar mejor el consumo de energía relacionado con la IA.

Gestionar el impacto de la IA en la energía, el agua y las emisiones requiere la colaboración entre empresas tecnológicas, investigadores, empresas de servicios públicos y responsables políticos. Una planificación coordinada puede ayudar a garantizar que la IA siga aportando beneficios económicos y sociales sin incrementar desproporcionadamente los costes energéticos, las emisiones ni la presión sobre los recursos.

Sıla Ermut
Sıla Ermut
Analista de la industria
Sıla Ermut es analista de la industria en AIMultiple, especializada en marketing por correo electrónico y vídeos de ventas. Anteriormente trabajó como reclutadora en empresas de gestión de proyectos y consultoría. Sıla es licenciada en Psicología Social y en Relaciones Internacionales.
Ver perfil completo

Sé el primero en comentar

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450