
Detrás de la pantalla, una simple consulta a uno de los distintos modelos de inteligencia artificial implica electricidad, agua y emisiones de gases de efecto invernadero. Es como si cada pregunta encendiera una ciudad entera por un instante. Aunque de manera individual ese gasto parece mínimo, multiplicado por millones de interacciones diarias se convierte en una huella ambiental imposible de pasar por alto.
Lo cierto es que el interés por medir ese impacto creció al ritmo de la expansión de la inteligencia artificial generativa. Hoy, distintas investigaciones comienzan a ponerle cifras concretas a lo que hasta hace poco era apenas una percepción: que el costo ambiental de estas herramientas es mucho mayor de lo que la mayoría de los usuarios imagina.
Un reciente estudio académico reveló que los modelos más avanzados de inteligencia artificial pueden llegar a consumir más de 33 Wh (vatio-hora) por consulta extensa, una cifra que supera en decenas de veces a la de sistemas compactos.
The Washington Post calculó que, al escalar ese consumo a cientos de millones de preguntas diarias, el resultado equivale a la electricidad de decenas de miles de hogares, al agua potable anual de más de un millón de personas y a emisiones de carbono que requerirían un bosque entero para compensarse.

Otros trabajos complementarios analizaron cómo el tamaño y la capacidad de razonamiento de los modelos inciden en su eficiencia, cómo la paradoja de la mejora tecnológica multiplica la demanda de recursos y qué limitaciones existen para medir con precisión su verdadero impacto ambiental.
La huella energética de una pregunta
De acuerdo con la Agencia Internacional de Energía (IEA), los centros de datos representan ya alrededor del 1,5 % del consumo eléctrico mundial y podrían duplicar esa participación hacia 2030. Dentro de ese universo, el crecimiento más acelerado proviene de los servidores dedicados a la inteligencia artificial, cuyo consumo aumenta a un ritmo cercano al 30 % anual. Esa proyección global pone a la IA en el centro del debate.
Los cálculos encuentran un correlato en una investigación publicada en arXiv, en la cual se presentó un marco de análisis que combina datos de las API (Interfaz de Programación de Aplicaciones) con factores ambientales regionales y características del hardware, con el objetivo de medir la huella de treinta modelos desplegados en centros de datos comerciales.
“Nuestro estudio proporciona una metodología estandarizada, empíricamente fundamentada, para evaluar la sostenibilidad de los despliegues de LLM”, explican los autores.

Los resultados marcan diferencias profundas entre sistemas. Modelos como o3 y DeepSeek-R1 se ubicaron en el extremo superior del consumo, con más de 33 Wh por cada consulta extensa, “más de 70 veces el gasto de GPT-4.1 nano”.
En el otro extremo se destacó Claude-3.7 Sonnet, identificado como el más eficiente en relación entre desempeño y recursos. Pero incluso cuando se trata de modelos más moderados, la escala del uso masivo cambia cualquier cálculo. Una consulta breve a GPT-4o demanda solo 0,42 Wh, pero multiplicar esa cifra por 700 millones de preguntas diarias equivale a un escenario de gran impacto.
La traducción de esos números a magnitudes reconocibles ilustra mejor el fenómeno: un consumo anual de electricidad equivalente al de 35.000 hogares estadounidenses, una evaporación de agua suficiente para cubrir las necesidades de 1,2 millones de personas durante un año y unas emisiones de carbono que requerirían “un bosque del tamaño de Chicago” para ser compensadas, de acuerdo con los autores del estudio.
The Washington Post, que examinó estos hallazgos, sintetizó la paradoja en una sola frase: “Aunque las consultas individuales generan un gasto marginal, la escala masiva de uso impulsa un consumo de recursos desproporcionado a medida que la adopción global de la inteligencia artificial se expande.”
El peso de la IA frente a la vida digital cotidiana

Un estudio publicado en Frontiers in Communication, aporta un enfoque complementario al medir con precisión cómo se relacionan el tamaño de los modelos, su capacidad de razonamiento y las emisiones que generan.
Los autores evaluaron catorce sistemas de entre 7.000 y 72.000 millones de parámetros y observaron una correlación directa: cuanto mayor el número de parámetros y más compleja la tarea de razonamiento, más alto es el costo ambiental.
“Los modelos más grandes alcanzan mayores niveles de precisión, hasta un 84,9 % de aciertos, pero a costa de un gasto energético y de emisiones considerablemente mayor”, señalaron.
La diferencia entre modelos resulta elocuente. Deepseek-R1 70B, diseñado para razonamiento, emitió 2.042,4 gramos de CO₂ equivalente al responder mil preguntas, mientras que Qwen 7B, mucho más compacto, apenas generó 27,7 gramos, aunque su precisión cayó al 32,9 %.

El estudio concluye que “la generación de tokens es el principal motor del consumo energético”, en referencia a las unidades mínimas de texto que producen los sistemas y que se multiplican cuando las tareas exigen razonamientos largos o respuestas extensas.
Los modelos con razonamiento generan no solo la respuesta final sino también cientos de tokens intermedios —los llamados de razonamiento—, que incrementan el gasto eléctrico de manera significativa.
La comparación con otras actividades digitales ayuda a poner estas cifras en contexto. The Washington Post recordó que una consulta a ChatGPT puede consumir diez veces más electricidad que una búsqueda en Google, pero también advirtió que ese diferencial se vuelve irrelevante cuando se observa el impacto individual.
Según sus cálculos, una persona que formule ocho preguntas simples a la IA cada día durante un año generará menos de 0,1 onzas de emisiones de carbono, lo que equivale apenas al 0,003 % de la huella anual promedio de un estadounidense.

Incluso las funciones más intensivas, como la generación de imágenes o videos con IA, siguen siendo modestas frente a otros consumos digitales. Una imagen requiere un gasto comparable al de cargar un teléfono móvil, y un video de cinco segundos puede demandar hasta 944 Wh, el equivalente a recorrer 61 kilómetros en bicicleta eléctrica. Pero la televisión, el almacenamiento masivo de datos o la navegación en internet superan ampliamente ese nivel de consumo, lo que relativiza el peso de la IA en la vida cotidiana.
La comparación con los alimentos es aún más ilustrativa. Según cifras citadas por dicho medio, cada respuesta de ChatGPT utiliza apenas 0,000085 galones de agua —una quinceava parte de una cucharadita—, mientras que producir una hamburguesa requiere unos 2.500 litros.
Eficiencia tecnológica y expansión de los centros de datos
El crecimiento exponencial de la demanda de inteligencia artificial impulsa la construcción de nuevas infraestructuras en todo el mundo. Según un análisis de Goldman Sachs citado por The Washington Post, los centros de datos en Estados Unidos podrían triplicar su consumo eléctrico hacia 2030, pasando del 3 % actual al 8 % del total nacional. Esa proyección está directamente vinculada a la integración de la IA en servicios básicos, redes sociales, salud y asistentes virtuales, lo que multiplica la cantidad de consultas procesadas cada día.

Las grandes tecnológicas ya preparan inversiones a la altura de esa expansión. OpenAI, por ejemplo, proyecta destinar hasta 500.000 millones de dólares a la construcción de nuevos centros de datos, algunos de los cuales contarán con plantas de energía a gas natural capaces de abastecer a ciudades de tamaño medio.
En estados como Virginia, donde se concentra la mayor red mundial de centros de datos, esta presión ya se traduce en tensiones en la red eléctrica y en un mayor recurso a fuentes fósiles para sostener el suministro.
La paradoja de la eficiencia se vuelve evidente en este contexto. Aunque los chips y algoritmos actuales consumen menos del 1 % de la energía que se necesitaba en 2008 para realizar los mismos cálculos, el consumo global de la IA sigue en aumento.
Google informó que las emisiones de su modelo Gemini por cada respuesta textual se redujeron 44 veces en un año, y sin embargo la multiplicación de usuarios compensa con creces esos avances.

Como señaló The Washington Post, “las mejoras tecnológicas permiten enormes ganancias en eficiencia, pero al mismo tiempo estimulan un uso creciente que termina neutralizando esas ventajas”. La lógica responde a lo que los economistas conocen como la paradoja de Jevons: cuanto más barato y accesible se vuelve un recurso, más aumenta su consumo.
Ese principio se confirma en el terreno digital. La posibilidad de realizar consultas ilimitadas a modelos cada vez más rápidos y baratos genera un incentivo constante a ampliar su uso, tanto en la vida cotidiana como en el ámbito laboral. El resultado es que el consumo agregado crece más rápido que la eficiencia lograda en cada interacción.
Miranda Gorman, especialista en soluciones climáticas en Planet FWD, lo sintetizó así: “Muchos de estos avances tecnológicos permiten una enorme eficiencia, por lo que no siempre deberíamos demonizarlos. Si puedes trabajar desde casa en vez de conducir, las emisiones del teletrabajo resultan muy pequeñas en comparación”.
Medir el impacto y lo que falta por saber
Uno de los principales obstáculos para dimensionar el impacto ambiental de la inteligencia artificial es la falta de datos consistentes y verificables. El investigador neerlandés Alex de Vries advierte que las estimaciones pueden variar hasta cincuenta veces de un caso a otro, dependiendo del tamaño del modelo, la capacidad de razonamiento, la fuente de energía utilizada y el tipo de consulta procesada.

Incluso, cada empresa utiliza métricas distintas y esto hace difícil comparar de manera directa los estudios existentes y limita la posibilidad de establecer estándares comunes.
Los propios autores del trabajo en Frontiers in Communication reconocen esa limitación. Su investigación se centró en catorce modelos con un rango de entre 7.000 y 72.000 millones de parámetros, pero señalaron que los resultados “no son fácilmente transferibles a otras familias de modelos” y que la extrapolación a sistemas mucho más grandes requiere nuevos análisis.
Las mediciones también dependen en gran medida del contexto energético en el que se realizan, ya que pueden variar notablemente en función de la matriz de cada país o incluso de cada región donde operan los centros de datos.
A pesar de esas dificultades, los investigadores coinciden en que será necesario establecer metodologías más estandarizadas. Es por eso que, el estudio en arXiv plantea un marco “empíricamente fundamentado” como base para futuras evaluaciones, mientras que otras iniciativas sugieren incorporar el análisis de ciclo de vida completo, que incluye desde la fabricación del hardware hasta el retiro de los equipos.
Últimas Noticias
Cuál es la temperatura adecuada del aire acondicionado en invierno para ahorrar energía y dinero
Este electrodoméstico cuenta con funciones inteligentes que se adaptan a cada época del año y se puede complementar su uso con otros elementos como ventiladores

No respondas llamadas de números con estos prefijos: son para cometer fraudes
El aumento de estafas mediante llamadas breves desde el extranjero preocupa a autoridades, quienes dan pautas para evitar pérdidas económicas y exposición de datos personales

WhatsApp busca trabajadores en diferentes áreas con sueldos de hasta 200 mil dólares: cómo aplicar
Las vacantes incluyen cargos de director de investigación, responsables de ventas globales y gerentes de pagos digitales

Cuál es el precio de las principales criptomonedas este día
El bitcoin, una de las principales criptomonedas, presentó un cambio de 0,01% en el último día

Criptomonedas: cuál es el precio de ethereum este 31 de agosto
Ethereum fue creada en 2015 por el programador Vitalik Buterin, con la intención de impulsar una herramienta para aplicaciones descentralizadas y colaborativas
