IA, un consumidor voraz de agua y energía
Pocos podían imaginar en la universidad estadounidense de Darmouth cuando, en 1956, durante un encuentro de expertos en teoría de la información, redes neuronales, computación, abstracción y creatividad, se acuñó por primera vez el término «Inteligencia Artificial», que la base a partir de la cual se imitan los procesos de inteligencia humana mediante la creación y la aplicación de algoritmos creados en un entorno dinámico de computación, se iba a convertir en el gran paradigma de nuestro días y también, en uno de los principales consumidores de energía en el mundo. Y este es un hecho oficial y cierto: la IA se ha convertido en un espinoso problema energético.
Tanto es así, que el próximo 5 de diciembre en París se celebrará la primera Conferencia Global sobre Energía e Inteligencia Artificial, una cumbre mundial en la que se debatirán medidas y posibles soluciones para enfrentarse al exponencial aumento de la demanda provocado por el imparable desarrollo de esta tecnología.
Este alto encuentro internacional, auspiciado por la ONU, llega en un momento en el que la IA comienza a dar notables muestras de su voracidad energética. Es tal la cantidad de energía que necesitan los centros de datos donde se gesta la Inteligencia Artificial que para 2030 se espera que el consumo pueda crecer en torno a un 200%. Otras previsiones menos halagüeñas señalan que este aumento se sextuplicará. El último informe de la IEA ya predice que el consumo de energía para el 2026 de los centros de datos será de más de 1.000 teravatios- hora, que es el consumo equivalente a todo Japón.
Según Francisco Asensi, director de innovación de DeAPlaneta Entertainment, «la Inteligencia Artificial (IA) es una tecnología que demanda una gran cantidad de recursos energéticos, hídricos y eléctricos, tanto para su entrenamiento como para su uso, y cuanto más avanzada sea esta, más energía requiere, por el gran volumen de operaciones que ha de realizar: GPT-2, lanzado en 2019, tenía 1.500 millones de parámetros. GPT-3, en 2020, llegó con 175.000 millones de parámetros. GPT-4 puede alcanzar hasta el billón. El crecimiento y la demanda de recursos, por lo tanto, es imparable y de momento no se vislumbra una fecha de caducidad».
Aunque todas las grandes revoluciones industriales siempre han estado asociadas a un mayor consumo de energía, creo que jamás se ha visto nada parecido, añade Asensi. Se estima que para el entrenamiento de Chat GPT-3 se necesitaron 78.437 kWh, o lo que es lo mismo, el consumo de energía de un hogar medio en España durante 23 años, según datos del Instituto de la Ingeniería de España (IIE).
Manuel Giménez, director ejecutivo de Spain DC, la asociación española que conecta los centros de datos líderes del mercado y los proveedores de alta calidad en España, apunta, sin embargo, «que el sector está firmemente comprometido con los máximos niveles de eficiencia energética y en el uso responsable de los recursos. Aunque la penetración de IA es aún escasa con respecto a otros países, como , en España tenemos el valor diferencial de ser una gran potencia en la producción de energías renovables, que son las que nutren el 100% de los centros de datos en nuestro país».
Desde que en 2022 la IA despegara definitivamente para aterrizar en nuestros ordenadores, en nuestro día a día, gigantes tecnológicos como Amazon, Google o Microsoft no han parado de invertir cientos de millones de dólares en la creación de centros de datos en todo el mundo para desarrollar y mantener aplicaciones que aprovechen el gran potencial de la Inteligencia Artificial. Los modelos de lenguaje en los que se basan las IA generativas precisan de una capacidad de cálculo enorme para su entrenamiento, en los que utilizan miles de millones de datos, lo que requiere servidores muy potentes. Estas formidables computadoras consumen muchísima electricidad, pero al mismo tiempo se calientan y es necesario refrigerarlas constantemente con sistemas que a su vez también requieren energía y también mucha agua.
Más de 15.800 millones de litros de agua
Según la Agencia Internacional de la Energía (AIE), los centros de datos emplean generalmente alrededor del 40% de su electricidad para alimentar los servidores y el 40% para enfriarlos. Los servidores están diseñados para operar entre 20C y 22 C: «Si esas temperaturas aumentan, también aumenta la probabilidad de fallo en los equipos», advierte David Mytton, investigador de computación sostenible en la Universidad de Oxford, en un artículo publicado en «Nature».
Prueba de ello es que Google consumió 15.800 millones de litros de agua en 2021, mientras que Microsoft gastó unos 3.600 millones. Los números difieren en cuanto al tamaño y al tráfico de datos que tienen estos centros. La horquilla varía desde los 7.600 metros cúbicos de agua potable por día de consumo de Google en Uruguay hasta los 660 millones de litros de agua que prevé usar Meta en su centro de Talavera de la Reina (Toledo). Un consumo que tiene una función vital: la refrigeración. De acuerdo con datos de DGTL Infra, el consumo promedio de agua de un solo edificio de centro de datos es de aproximadamente 24,9 millones de litros de agua al año o lo que es lo mismo 68.219 litros por día.
Las grandes empresas tecnológicas como Google, Amazon, Oracle o Microsoft han visto en la energía nuclear una solución para soportar las grandes necesidades eléctricas que requieren esos inmensos centros de datos que hacen posible la Inteligencia Artificial. Según desveló recientemente «The Wall Street Journal», un tercio de las plantas de energía nuclear de Estados Unidos se encuentran en conversaciones con empresas tecnológicas para suministrar electricidad a nuevos centros de datos necesarios para satisfacer las nuevas demandas de la inteligencia artificial.
Google anunció recientemente un acuerdo para obtener electricidad de siete pequeños reactores nucleares (SRM) para alimentar a sus herramientas de IA. «Creemos que la energía nuclear puede desempeñar un papel fundamental en nuestro crecimiento limpio y contribuir al progreso de la IA», aseguraron los responsables. Los primeros reactores empezarían a funcionar a finales de esta década. Para 2035 generarían ya 500 megavatios de potencia.
Amazon, por su parte, invertirá 500 millones de dólares para poner en marcha varios de estos mini reactores. Ya el pasado marzo había dedicado otros 650 millones en un centro de datos que se alimentaría de la energía nuclear de una planta en el estado de Pensilvania. En el caso de Apple, uno de los últimos colosos en incorporar la IA en sus dispositivos, ha calificado la energía nuclear como una «electricidad limpia». Estados Unidos cuenta en la actualidad con 93 reactores de uso comercial que producen un 19% de la energía total del país.
En cuanto a posibles soluciones de cara al futuro, Francisco Asensi señala la segmentación de la consultas y la investigación como principales remedios: «Las grandes tecnológicas tienen sus propios equipos dedicados a la energía e invierten cientos de millones de dólares en I+D para conseguir afinar al máximo en este sentido. Es más, los centros de datos nacen sobre plano con un componente muy importante de energía, y es la propia IA quien aconseja y estudia la mejor forma de mantener cada planta».
Por otra parte, una de las mejores soluciones para el ahorro de energía es la propia economía de consultas, esto es, segmentar y contextualizar mediante una tecnología llamada RAG (Retrieval-Augmented Generation), que, simplificando, consiste en lo siguiente: si el modelo tuviera muchísima información almacenada, ante la pregunta de un usuario tardaría mucho (y gastaría mucha energía) en buscar la respuesta entre tanta información. «RAG» le da acceso a una base de datos con la información troceada y el modelo únicamente busca en la base de datos lo que necesita, lo que agiliza el proceso y la respuesta.
Manuel Giménez, por su parte, apuesta sin ambages por el desarrollo futuro de la IA, independientemente de hallar soluciones para reducir su alto coste energético. «Es una herramienta fundamental para la transformación digital de la sociedad, es la irrupción más importante en la historia desde la llegada de Internet. La IA nos aporta beneficios a nivel empresarial, industrial, en cuanto a predictibilidad, hacer cálculos, múltiples funciones que se adaptan a cada sector. Operaciones a distancia de alta precisión o la predicción y corrección de procedimientos», concluye.