-
+
DANY SCHMALZ (GETTY IMAGES/ISTOCKPHOTO)

La IA generativa: más esencial y más sucia

Andrés Ortega

7 mins - 14 de Julio de 2023, 07:00

La digitalización, si no se nutre de energía limpia, puede generar gases de efecto invernadero y contribuir al cambio climático en vez de corregirlo, como ya hemos analizado con Gregorio Martín Quetglas al hablar de la necesidad de una digitalización con descarbonización. La última vuelta de tuerca de la Inteligencia Artificial (IA), llega con la llamada generativa, basada en los LLMs (large language models, o grandes modelos de lenguaje) que gasta enormes cantidades de electricidad pues se nutre de, o se entrena con, ingentes cantidades de datos (incluidos textos, imágenes y música) y necesita mucha capacidad de procesamiento para responder. Se calcula que integrar tecnologías como ChatGTP de OpenIA en los buscadores (como en Google o Bing), puede multiplicar por cinco ese consumo de electricidad, ya elevado. Pues ChatGPT3 logró 100 millones de usuarios en sus dos primeros meses de existencia, y 1.800 millones de consultas al mes, pero Bing procesa 500.000 millones de búsquedas diarias. Google, muchas más. La carrera por la IA generativa puede ser muy sucia, muy contaminante. Es un secreto bien guardado, como se apuntaba en la revista Wired. La IA suena a algo etéreo, ligero, con su nombre y con la “nube”, pero se basa en inmensos centros de datos y comunicaciones que devoran energía. Los centros de datos, antes de esta IA, ya suponían un 1-1,5% de las emisiones mundiales de gases de efecto invernadero, según la Agencia Internacional de la Energía.

[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

La IA y el cambio climático se tratan generalmente por separado, cuando están estrechamente vinculados, tanto porque sin la IA no se lograría perfeccionar los modelos para luchar contra ese mal global, como porque la propia IA se está convirtiendo en uno de los grandes emisores de gases de efectos invernadero mientras la energía que consuma no sea verde o limpia. Un ejemplo de este divorcio, olvido o ignorancia, lo encontramos en los programas de los principales partidos políticos españoles en las elecciones del 23-J. El PP habla, como si fueran cuestiones no relacionadas, del “desafío que supone el cambio climático y el desarrollo de la Inteligencia Artificial”. Sumar también. El Gobierno de coalición lo ha abordado en ocasiones, por ejemplo, impulsando los mal llamados “algoritmos verdes”, pero el programa del PSOE no trata verdaderamente este gran problema. Es de esperar que lo aborde en la Estrategia Nacional de Inteligencia Artificial que promoverá si gobierna. Vox es retardacionista (partidario de retrasar la transición ecológica) e incluso negacionista del factor humano en el cambio climático (y, además, no se ocupa de lo digital ni el término inteligencia artificial aparece en su programa). 

Tampoco la legislación europea en curso, que ha salido del Parlamento Europeo y ahora requiere un acuerdo de las tres instituciones, entra de lleno en esta cuestión. La Eurocámara sí reconoce que “los sistemas de IA pueden tener un gran impacto medioambiental y un elevado consumo de energía durante su ciclo de vida” Propone, entre otras cosas, que “con el fin de comprender mejor el impacto de los sistemas de IA en el medio ambiente, la documentación técnica elaborada por los proveedores debe incluir información sobre el consumo de energía del sistema de IA, también el consumo durante su desarrollo y el consumo previsto durante el uso”.

Unos investigadores han calculado que la energía utilizada para fabricar el hardware de superordenador y mantener su infraestructura y la electricidad utilizada para alimentar y hacer funcionar un programa, Bloom, de modelo grande de lenguaje, uno de los muchos que se desarrollan a diario, genera unas 50 toneladas métricas de emisiones de dióxido de carbono, el equivalente a 60 vuelos de un individuo entre Londres y Nueva York. Y Bloom no es de las que más energía gastan. Según The Guardian, los datos públicos disponibles a este respecto, muy limitados dado el secretismo de las empresas, sugieren que se produjeron unas 500 toneladas métricas de CO2 sólo en el entrenamiento del modelo GPT3 de ChatGPT, el equivalente a más de un millón de kilómetros recorridos por coches de gasolina de consumo medio, según los investigadores.



Con GPT4 es aún peor. Según otro informe, el consumo energético de GPT-4 se ve agravado no solo por la cantidad de datos para “educarla”, sino por la energía necesaria para mantenerla en funcionamiento y las peticiones que se le hacen. Esto puede atribuirse al hecho de que GPT-4 es un modelo de gran tamaño con más de 175.000 millones de parámetros. La cantidad de energía necesaria para mantenerla en funcionamiento se ve agravada por el hecho de que debe actualizarse y ajustarse constantemente para mantener su precisión.

Hay otros aspectos. En primer lugar, la IA es una tecnología sedienta de agua. Según un estudio de la Universidad de Riverside, instruir con información al ChatGPT3 en los centros de datos de última generación de Microsoft en EE UU podría haber consumido 700.000 litros de agua potable (como para producir 320 vehículos eléctricos Tesla). El consumo de agua se habría triplicado si la formación se hubiera realizado en los centros de datos asiáticos de Microsoft, pero, indican los investigadores, esa información se ha mantenido en secreto.

Preguntado ChatGTP3.5 al respecto, contestó: “Como modelo de lenguaje basado en texto, ChatGPT-3.5 y ChatGPT-4 no consumen directamente energía ni agua. Sin embargo, es importante tener en cuenta que estos modelos de lenguaje son alojados y ejecutados en servidores de computación en la nube, lo que implica un consumo de energía y recursos por parte de los centros de datos donde se encuentran.” Bard de Google, no dudó en afirmar que su “huella de carbono es nula”. Cabe recordar la noticia de que el hipercentro de datos de Meta en Talavera consumirá más de 600 millones de litros de agua potable en una zona en peligro de sequía

En segundo lugar, hay una cuestión cuya importancia está aumentando, no solo para la IA, sino para toda la digitalización: la polución que suponen los dispositivos obsoletos. Como ha recogido el Financial Times, un informe del Monitor Mundial de Residuos Electrónicos de las Naciones Unidas reveló que en 2019 se habían vertido en todo el mundo la friolera de 53,6 millones de toneladas de residuos electrónicos, equivalente al peso de 4500 torres Eiffel.

Un año de residuos electrónicos, procedentes de dispositivos desechados, contiene materias primas por valor de 57.000 millones de dólares, que podrían reutilizarse o reciclarse si las empresas mejoraran el diseño de los productos. Todo antes del nuevo salto en IA.

¿Soluciones? Sí. Preguntada, la propia ChatGPT, que las saca de textos de expertos, propone algunas como una mayor eficiencia de los centros de datos (cabe añadir una mayor proximidad de estos al usuario); mayor eficiencia algorítmica; optimización del entrenamiento de los grandes modelos lingüísticos; avances en hardware, y claro, fuentes de energía ecológicas. Además de impulsar una IA más pequeña, en vez de gigante, y avanzar en el diseño de los dispositivos para facilitar su reciclaje. Las grandes empresas tech proclaman su intención de convertirse en emisoras negativas de carbono para 2050. De momento invierten en comprar créditos de carbono. Pero tiene Smucho de imagen.

Tema a seguir. Poco a poco va entrado en el debate europeo e internacional. En el español, todavía demasiado poco.

¿Qué te ha parecido el artículo?
Participación