Soluciones para reducir el consumo energético de la IA
Las posibles soluciones para reducir el impacto de las consultas que a diario se hacen a los modelos de IA generativa abarcan desde la infraestructura al algoritmo. Entre ellas: dónde y cómo se refrigeran los centros de datos, el procesamiento local que evita largos viajes a la nube o los chips especializados. También influye el uso, como redactar ‘prompts’ más concisos.
¡Suscríbete a nuestra 'newsletter' semanal de sostenibilidad!
El consumo energético de la IA es la electricidad necesaria para entrenar y ejecutar modelos. Este gasto se concentra sobre todo en centros de datos. Según una investigación de la UNESCO y del University College de Londres, más de mil millones de personas usan a diario herramientas de IA generativa. Cada 'prompt' consume unos 0,34 vatios-hora. En conjunto, esto equivale a unos 310 gigavatios-hora al año. Es una cifra similar al consumo eléctrico anual de un país en desarrollo con algo más de tres millones de habitantes. Este dato puede variar según el modelo de IA utilizado. La Agencia Internacional de la Energía estima que en 2024 el 1,5% de la electricidad mundial ya se destinaba a centros de datos. Son las instalaciones donde se entrenan y operan estos sistemas.
Aun así, empiezan a surgir soluciones a este reto energético. La empresa sueca Telia aprovecha el calor de sus servidores en Helsinki. Desde 2022, lo integra en el sistema de calefacción urbana. Así contribuye a calentar hogares y evita desperdiciar energía. Ese calor también podría usarse en piscinas públicas, hospitales o invernaderos. De este modo, se abre la puerta a un uso más eficiente de los recursos.
Cómo reducir el consumo de energía de la IA en un 90%, según la UNESCO
Entre las soluciones accesibles y eficaces que recomienda la UNESCO en su informe ‘Una inteligencia artificial más inteligente, más compacta, más potente y eficiente en recursos, y el futuro de la transformación digital’ están:
- El uso de modelos más pequeños adaptados a tareas específicas pueden reducir el consumo de energía hasta en un 90 %. La investigación muestra que si están adaptados a tareas específicas, como la traducción o el resumen, puede reducir significativamente el consumo de energía sin perder rendimiento.
- Dar al modelo respuestas y ‘prompts’ más cortos y concisos. Esto puede reducir el consumo de energía en más del 50 %.
- Reducir el tamaño de los modelos a través de técnicas como la cuantización ayuda a utilizar menos energía sin perder precisión, pudiendo ahorrar hasta un 44 %.
Centros de datos eficientes: otra clave para reducir el consumo energético de la IA
Según argumenta Aurora González Vidal, matemática e investigadora de análisis de datos para entornos inteligentes en la Universidad de Murcia, los modernos centros de datos se están rediseñando en tres dimensiones: “Ubicación en regiones con abundante energía renovable; gestión inteligente de cargas en función de dónde haya energía renovable en el momento en que se necesite; y técnicas de refrigeración más eficientes, como refrigeración líquida, centros de datos submarinos experimentales (Microsoft Project Natick) o uso de aire frío exterior”, explica.
Se habla también ya no solo de aprovechar el calor de los centros, sino de ubicarlos allá donde resulten más sostenibles. El denominado ‘edge computing’ consiste en procesar los datos lo más cerca posible de donde se generan (un dispositivo móvil, un sensor, un ‘router’ local...) en lugar de enviarlos a grandes centros de datos centralizados. Esta experta subraya que este importante cambio de paradigma contribuye a la sostenibilidad de internet a través de cuatro grandes pilares:
- Menor tráfico de datos en la red: enviar cada dato a la nube implica un largo viaje a través de ‘routers’, cables y redes de fibra óptica hasta llegar al centro de datos. Toda esta infraestructura de red consume una gran cantidad de energía. Procesar datos localmente reduce drásticamente la cantidad de información que debe viajar, lo que a su vez disminuye la carga y el gasto energético.
- Procesamiento más eficiente de la información: no todos los datos que se generan son útiles o necesitan ser almacenados. Por ejemplo, una cámara de seguridad con capacidad de ‘edge computing’ puede analizar el vídeo localmente y enviar a la nube aquellos fragmentos donde detecte movimiento, en lugar de mantener un ‘streaming’ continuo. Evita así transmitir y almacenar información menos útil, y ahorra energía en transmisión y almacenamiento.
- Reducción de la carga en los centros de datos: descentralizar el proceso evita que los grandes centros de datos tengan que gestionar millones de peticiones simultáneas. Esto reduce su carga computacional y, por tanto, el enorme consumo energético (y de agua para refrigeración) que conlleva su funcionamiento.
- Menor latencia y procesamiento en tiempo real: procesar localmente permite que ciertos dispositivos, como coches autónomos, sensores industriales o asistentes de voz, tomen decisiones inmediatas sin necesidad de contactar con la nube. Esta eficiencia evita el consumo energético de una ida y vuelta de datos.
Para casos intermedios sirve el ‘Fog Computing’, un modelo de computación descentralizado que extiende la nube al entorno y equilibra así el procesamiento local con la potencia de la nube. Aurora González asegura que gran parte del salto en eficiencia proviene del hardware. Los chips optimizados para operaciones de IA pueden ser una alternativa viable a las grandes unidades centrales de procesamiento (los tradicionales CPU). Estos chips evitan operaciones generales innecesarias porque incluyen unidades dedicadas a la multiplicación de matrices. Existen ejemplos muy conocidos: el Google Tensor Processing Unit, las NVIDIA H100 o el Apple Neural Engine.
“Además, los aceleradores de IA reducen la distancia entre memoria y cálculo, ya que mover datos dentro de un chip consume mucha energía. Y están diseñados para ejecutar simultáneamente miles de operaciones en paralelo, reduciendo el tiempo total. Estas características los hacen energéticamente más eficientes”, afirma la investigadora.
¿Qué es la IA verde y cómo reduce el gasto energético?
Localizaciones, infraestructuras, hardware... Pero, ¿qué ocurre con la herramienta misma, con la propia inteligencia artificial? ¿Puede aprender consumiendo menos energía? El enfoque sostenible de la IA se conoce como IA verde, que trata de maximizar el rendimiento de los modelos mientras se minimizan sus costes energéticos y ambientales. Esta concepción resulta novedosa porque la investigación en torno a la IA se centró durante años en la precisión y el tamaño del modelo. Pero, bajo esta premisa, el éxito de una IA descansa antes en cuánta energía necesita para ser precisa que en dicha precisión. En otras palabras, dice Aurora González, es “eficiencia computacional como métrica científica”.
La científica distingue entre dos fases con necesidades energéticas muy diferentes: el entrenamiento y la inferencia. “El entrenamiento es un proceso intensivo que puede llegar a emitir enormes cantidades de CO2, pero que ocurre una o pocas veces. La inferencia, en cambio, es cuando el modelo ya está desplegado y se usa para hacer predicciones: ocurre millones de veces, cada vez que alguien habla con un asistente de voz o traduce un texto. Optimizarla tiene un impacto masivo a largo plazo”, indica.
Una IA puede aprender y funcionar consumiendo menos energía mediante algoritmos más eficientes; hardware especializado, como las TPU (Tensor Processing Units, por sus siglás en inglés); y modelos más pequeños, aunque bien optimizados, como el paradigma TinyML (Tiny Machine Learning), que busca comprender modelos, eliminar conexiones innecesarias entre neuronas (‘pruning’) y usar números más sencillos mediante la cuantización. “Esto reduce operaciones matemáticas sin perder demasiado rendimiento y puede llegar a permitir la ejecución de modelos de IA en dispositivos muy pequeños con consumos de milivatios (unidad de potencia que equivale a la milésima parte de un vatio)”, agrega González.
La doctora plantea una paradoja de la que se pueden extraer innumerables preguntas e hipótesis. La paradoja de Jevons implica que la introducción de tecnologías con mayor eficiencia energética puede aumentar a la larga el uso de dichas tecnologías y, por lo tanto, el consumo total de energía y el incremento de las emisiones. Pero deja abierta la puerta de la esperanza: “Hay muchas personas trabajando para, por lo menos, llegar a compensar este consumo. Por ahora, pienso que es un reto más”.
La calificación energética de los centros de datos
Ante el auge de la inteligencia artificial y su consumo energético, la Unión Europea ha puesto en marcha un sistema común para medir la sostenibilidad de los centros de datos, que exige reportar indicadores clave de eficiencia. A través de la Directiva de Eficiencia Energética de la UE y su desarrollo reglamentario, los operadores deberán comunicar métricas como el consumo total de energía, el uso de agua (WUE, water usage effectiveness) o indicadores estandarizados como el PUE, que mide la eficiencia energética de las instalaciones.
Estos datos alimentarán una base europea que permitirá comparar el rendimiento de los centros entre regiones o países. A partir de ahí, la Comisión prevé desarrollar una calificación energética común —todavía en proceso de diseño y similar a las etiquetas de electrodomésticos— que clasifique a los centros de datos según su eficiencia y sostenibilidad, con vistas a establecer en el futuro estándares mínimos obligatorios.
Preguntas frecuentes sobre el consumo energético de la IA
¿Qué es el consumo energético de la IA?
Es la electricidad necesaria para entrenar y ejecutar modelos de inteligencia artificial, especialmente en centros de datos.
¿Cuánta energía consume la IA generativa?
El consumo varía según el modelo, pero cada interacción puede requerir energía que, a gran escala, supone un impacto significativo.
¿Cómo se puede reducir el consumo energético de la IA?
Mediante centros de datos eficientes, algoritmos optimizados, hardware especializado y un uso más eficiente, como prompts más concisos.
¿Qué es la IA verde?
Es un enfoque que busca maximizar el rendimiento de los modelos reduciendo su consumo energético y su impacto ambiental.
¿Qué consume más energía: entrenar o usar un modelo de IA?
El entrenamiento consume más energía en un único proceso, pero la inferencia, al repetirse millones de veces, tiene mayor impacto acumulado.