Cada día ChatGPT consume al menos 100 millones de litros de agua dulce
Una búsqueda en ChatGPT necesita diez veces más energía que la misma búsqueda en Google
GinebraHace sólo unos días, Amazon anunció los planes de construir un centro de datos gigantesco en el estado de Indiana, en Estados Unidos. Este centro de cálculo estará dedicado al entrenamiento de sistemas de inteligencia artificial con el objetivo de simular el cerebro humano. La factura de la luz les saldrá cara, ya que este complejo consumirá unos 2,2 gigavatios de electricidad; suficiente energía para alimentar a toda una ciudad.
El hecho es que, en la última década, la gestión y el análisis de datos se han convertido en un de los principales devoradores de energía y otros recursos del planeta. El gran volumen de información que se procesa y su complejidad se han visto intensificados por la irrupción de la inteligencia artificial y, en gran medida, por culpa de los grandes modelos de lenguaje que hay detrás de sistemas como ChatGPT o Llama.
"El impacto global es desmedido. El problema es que nosotros sólo conocemos una decena de modelos, pero quizás hay miles que se están entrenando con los mismos datos", afirma Ulises Cortés, director de investigación en inteligencia artificial en el Barcelona Supercomputing Center (BSC).
El crecimiento exponencial de las tecnologías basadas en IA y su consecuente incremento en el gasto energético son los principales retos a los que se enfrentan no sólo las empresas que producen estos modelos sino también los respectivos gobiernos que deben gestionar la demanda. Compañías como Facebook, Google o Amazon buscan estrategias para reducir ese impacto, algunas de las cuales implican la instalación de grandes extensiones de placas fotovoltaicas o la construcción de pequeños reactores nucleares cercanos a los centros de datos. Sin embargo, ninguna de ellas parece una solución sostenible en un planeta fuertemente afectado por el aumento de las temperaturas y una crisis energética siempre incipiente.
Pero, ¿cuánto gasta la IA?
El cerebro humano, con toda su complejidad y potencia de cálculo, consume alrededor de unos 0,3 kilovatios hora, aproximadamente un 20% de la energía total que necesita nuestro cuerpo para realizar las funciones básicas. Esta cifra contrasta con lo que gastan las herramientas de computación artificiales más potentes que existen y que han irrumpido en nuestras vidas de forma ubicua.
Sin embargo, medir la energía que consume un modelo de IA no es cómo calcular la gasolina que consume un coche o la electricidad que gasta el frigorífico. No existe una metodología establecida ni una base de datos que contenga la información necesaria. nadie ha logrado cuantificarla en detalle Por otra parte, la falta de transparencia de las empresas desarrolladoras tampoco ayuda a extraer una cifra clara.
Algunos cálculos realizados desde el Instituto de Tecnología de Massachussets, el conocido MIT, estiman que el entrenamiento de GPT-4, de la empresa OpenAI, costó más de 100 millones de dólares y consumió alrededor de 50 gigavatios hora de electricidad, lo suficiente para abastecer a toda la población de Barcelona durante un día y medio. Sin embargo, este cálculo es aproximado, puesto que los modelos como GPT-4 o ChatGPT son de "código cerrado", es decir, nadie más allá de los desarrolladores tienen acceso a los detalles del modelo ni a su proceso de creación y entrenamiento. Así pues, sin más información proveniente de las compañías, hilar fino es imposible. La forma más fiable de hacer estimaciones es a partir de modelos de "código abierto", como el chino DeepSeek, y extrapolar sus resultados.
El problema de los datos
Uno de los factores que parece tener mayor impacto en el consumo es el procesamiento inicial de los datos. La mayoría de los modelos como ChatGPT entrenan con un volumen muy grande de información que aparece en internet. Mucha de esta información es redundante o inservible, pero el filtrado es complejo y requiere una supervisión humana intensa, lo que hace que sea un proceso económicamente costoso y del que las empresas suelen prescindir.
"Se piensa que hasta un 30% del gasto energético se gasta en un mal diseño del sistema de entrenamiento", apunta Cortés. El único modelo que hasta ahora parece haber curado los datos antes de realizar el entrenamiento es DeepSeek, el gran modelo de IA desarrollado por China.
Mirando al futuro y teniendo en cuenta la evolución de la IA, según algunas proyecciones publicadas por el Laboratorio Nacional Lawrence Berkeley, en 2028 más de la mitad de la electricidad consumida por los centros de cálculo irá a parar a la inteligencia artificial Llegados a este punto, estas herramientas consumirán tanto como el 22% de las.
Y no sólo electricidad, sino que también consume mucha agua. Un estudio de la Universidad de Cornell cuantificaba cada interacción con ChatGPT, de entre 10 y 40 prompts, en medio litro de agua y alertaba de que, aunque podría parecer poco a nivel individual, esta IA puede atender entre 100 y 200 millones de peticiones al día, de visitas, lo que supone 100 millones de litros de agua dulce diarios, un recurso escaso al que una cuarta parte de la población del mundo no tiene acceso.
El coste de la generación de texto, imágenes y vídeos
La generación de texto es posiblemente una de las aplicaciones más frecuentes de los grandes modelos de lenguaje. En cada "conversación", los usuarios suelen encadenar varias preguntas y respuestas. Según las estimaciones hechas por el MIT Technology Review, el modelo Llama 3.1, de la empresa Meta, matriz de Facebook, con 600.000 millones de parámetros, necesita alrededor de 6700 julios para cada respuesta, la energía necesaria para hacer funcionar un microondas durante ocho segundos. Sin embargo, modelos como ChatGPT contienen tres veces más parámetros y triplicarían el consumo del modelo de Meta.
Contrariamente a lo que se pueda pensar, generar imágenes es mucho más económico. Gracias a que la arquitectura de los modelos para crear imágenes difiere notablemente de los que sirven para crear texto, éstos consumen alrededor de 4400 julios de energía por una imagen de calidad estándar, el equivalente a conectar el microondas durante cinco segundos y medio.
Por último, en cuanto a la generación de vídeo, el consumo se dispara. La generación de un vídeo de sólo cinco segundos con 16 fotogramas por segundo requiere unos 3,4 millones de julios, el equivalente a hacer funcionar el microondas durante más de una hora.
Algunas estimaciones cifran el número global de interacciones diarias realizadas con ChatGPT en torno a los mil millones, cifra que, según ChatGPT (encuéntrase la ironía), coincide con el número de microondas que hay en el mundo.
Aunque algunos de los modelos de IA, como son los grandes modelos de lenguaje que están detrás de ChatGPT, por ejemplo, consumen grandes cantidades de recursos, otros modelos están enfocados, precisamente, a que muchos procesos sean más eficientes y gasten mucha menos energía. Éste es el caso, por ejemplo, de la gestión de la temperatura de un edificio o la predicción del consumo energético de una región determinada. "Cuando la gestión energética se hace más compleja, el utilizar estas herramientas nos puede ayudar a encontrar una solución óptima", comenta Joaquim Melendez Frigola, profesor de la Universidad de Girona y experto en ingeniería de sistemas. "Estos modelos de IA pueden ayudarnos en problemas complejos de gestión aumentando la rapidez y en la complejidad de definir el entorno", añade. Y es que se basan en modelos mucho más simples que los grandes modelos de lenguaje y son, en consecuencia, mucho más económicos.
La sed de la IA
La IA no sólo tiene hambre de electricidad, también tiene sed y bebe una gran cantidad de agua. Gran parte de esta agua se utiliza para refrigerar toda la electrónica de los centros de cálculo. Sam Altman, el fundador de OpenAI, la empresa responsable de ChatGPT, declara que cada pregunta que hacemos en ChatGPT consume sólo una decimoquinta parte de una cucharada de agua. Sin embargo, esta cifra contrasta con la que obtienen algunos estudios publicados en revistas como Nature, que estiman que el consumo se encuentra más bien en torno a treinta veces la cantidad que afirma Altman; también hay estimaciones que van más allá y la cifran en cientos de litros.
Para compensar el gran consumo energético de los centros de cálculo, algunas grandes empresas tecnológicas están apostando por el desarrollo de centrales energéticas cercanas a sus instalaciones. Entre las alternativas se encuentra la instalación de grandes extensiones de placas fotovoltaicas o incluso el desarrollo de nuevas centrales nucleares. Hace apenas unos días, Google firmó un acuerdo con Commonwealth Fusion Systems, una empresa que desarrolla tecnología de fusión nuclear. Fundada en el año 2018 como una spin-off del MIT, esta empresa tiene entre sus inversos al propio Bill Gates, fundador de la empresa Microsoft.
"Bill Gates lo vio venir y lleva años invirtiendo en el desarrollo de microcentrales nucleares", señala Cortés. En esa línea, Gates fundó TerraPower, una empresa que desarrolla una nueva generación de reactores de fusión compactos. Precisamente, a principios de este año, esta empresa firmó un acuerdo con Sabey Data Centers, uno de los principales constructores de centros de datos de Estados Unidos.
Hacia un modelo sostenible y responsable
La inteligencia artificial avanza a un ritmo desmedido y su desarrollo y adopción está, en gran parte, libre de regulaciones. Las grandes empresas tecnológicas parecen gozar de una libertad absoluta a la hora de poder hacer un uso tan intensivo de recursos fundamentales para la sociedad como son la electricidad y el agua.
"Es sorprendente que los gobiernos se hayan dejado engatusar con una tecnología que es potencialmente tan perniciosa, no sólo por el medio, sino también por la educación y el pensamiento crítico", comenta Cortés, quien propone incluir impuestos medioambientales de forma similar a cómo se hace con los vehículos de combustión. "¿Por qué todo el mundo dispone de este tipo de herramientas y se cobra un impuesto ecológico por su uso? ¿Habría que el usuario fuera consciente del impacto que tiene el uso de esta tecnología", plantea.
El director de investigación en IA del BSC se muestra crítico, pero optimista con el futuro del sector, "el cambio climático se está acelerando precisamente por un uso despreocupado de la tecnología. Esperamos poder ser capaces de educar a las nuevas generaciones para que entiendan que su futuro depende de su uso responsable", concluye.