Alicia Galindo: Entre turbinas de gas y algoritmos, la sorprendente historia energética detrás de la IA
La inteligencia artificial (IA) vive un momento de expansión sin precedentes y, con ello, crece la preocupación por su huella energética. Sin embargo, también emerge su enorme potencial para acelerar la transición hacia sistemas más limpios y eficientes. Esta dualidad define una de las discusiones más relevantes de la década: ¿será la IA un motor de sostenibilidad o una nueva fuente masiva de emisiones?
La demanda eléctrica de los centros de datos dedicados a la IA está aumentando a un ritmo que sorprende incluso a los especialistas. La columna Lex del Financial Times advierte que la construcción acelerada de infraestructura eléctrica se ha convertido en un requisito inevitable ante el boom de la IA (“How AI might save more energy than it soaks up”, FT, 16 agosto 2025). Esta expansión súbita ha sido abastecida principalmente por redes que aún dependen de combustibles fósiles, lo que presiona los objetivos climáticos globales.
El fenómeno ya está afectando las decisiones energéticas a gran escala y las grandes tecnológicas están impulsando una carrera hacia nuevas plantas de gas para sostener su crecimiento (“The fallout from the AI-fuelled dash for gas”, FT, 21 octubre 2025).
A la par, inversionistas institucionales como Blackstone reconocen que Wall Street podría estar subestimando el riesgo energético y tecnológico que representa esta nueva oleada (“Blackstone says Wall Street is complacent about AI disruption”, FT, 18 octubre 2025).
Incluso desde el interior del sector tecnológico existe preocupación. Sasha Luccioni, investigadora en Hugging Face, recuerda que todavía “no sabemos con precisión cuánta energía consume la IA”, subrayando que las emisiones asociadas a centros de datos ya rivalizan con las de la aviación (“We still don’t know how much energy AI consumes”, FT, 20 mayo 2025).
La diferencia energética entre modelos es abismal: algunas arquitecturas ultraligeras consumen lo equivalente a segundos de un foco LED, mientras que los grandes modelos de lenguaje necesitan miles de veces más energía por consulta.
Esta brecha, documentada en distintos artículos del FT, es clave para entender que no toda IA impone la misma carga climática. Inversionistas como Waldemar Szlezak advierten que el despliegue de la infraestructura actual corre el riesgo de reproducir patrones típicos de los booms tecnológicos, con sobreinversiones y correcciones (“Investors need to look beyond the ‘bragawatts’ in AI infrastructure boom”, FT, 2 noviembre 2025).
En este contexto de alarma energética, Sam Altman —CEO de OpenAI— acaba de introducir un elemento que podría cambiar la conversación.
Según él, una consulta promedio a ChatGPT consume apenas 0.34 Wh de energía, comparable a encender un horno por poco más de un segundo o mantener encendida una bombilla LED eficiente durante unos minutos.
Además, afirma que cada consulta utiliza alrededor de 0.000085 galones de agua, lo que equivale a una quinceava parte de una cucharadita. Estas cifras, si bien aún requieren mayor verificación técnica, pues Altman no ha presentado públicamente la metodología detallada, cuestionan una de las críticas más persistentes contra la IA: su supuesta huella hídrica y energética desproporcionada.
Si estos números se confirman, el costo operativo de sistemas como ChatGPT sería significativamente menor de lo que muchos analistas han proyectado, con implicaciones directas en márgenes, escalabilidad y viabilidad económica. Y Altman va más allá: sostiene que, conforme los centros de datos se automaticen, el “costo de la inteligencia” podría converger con el costo de la electricidad. Un escenario así haría que la IA fuese cada vez más accesible, ubicándola como un catalizador clave para la innovación masiva y democratizada.
Para quienes analizamos información financiera, oportunidades tecnológicas y desarrollo sostenible, este anuncio no solo desmitifica temores: también abre la puerta a modelos más eficientes, económicos y ambientalmente responsables.
La inteligencia artificial no solo plantea riesgos energéticos: también podría convertirse en una de las herramientas más efectivas para reducir emisiones.
Como documenta Pilita Clark en el Financial Times, ya se observan beneficios tangibles: parques eólicos que aumentan su valor energético en torno al 20%, centros de datos que reducen su consumo de enfriamiento en torno al 40%y avances acelerados en tecnologías solares, baterías y materiales de baja huella de carbono. Incluso innovaciones como AlphaFold comienzan a redefinir la sostenibilidad alimentaria desde la biotecnología.
El FT señala que, si estas aplicaciones se escalan, la IA podría ahorrar más energía de la que consume, especialmente en edificios y redes eléctricas inteligentes.
Proyecciones conservadoras estiman que, para 2035, la tecnología podría recortar entre 3.2 y 5.4 gigatoneladas de emisiones en sectores clave. Pero este potencial convive con un obstáculo crítico: la opacidad.
Brookings Institution advierte que la falta de datos fiables sobre consumo energético impide evaluar el verdadero impacto ambiental de la IA. La situación es tan seria que incluso las metas de cero emisiones de empresas como Microsoft enfrentan cuestionamientos crecientes.
En un momento en que Sam Altman asegura que una consulta a ChatGPT consume apenas 0.34 Wh y una fracción mínima de agua, la narrativa climática de la IA se vuelve aún más compleja. Si esas cifras son precisas, la eficiencia podría mejorar significativamente. Pero mientras no exista transparencia total, el debate seguirá abierto.
Lo cierto es que la IA no es un héroe ni un villano climático. Su papel dependerá de decisiones muy concretas: eficiencia desde el diseño, datos verificables y una integración real con energías renovables. La transición energética no podrá prescindir de la IA, pero sí puede y debe exigirle responsabilidad.