El consumo de agua de la IA: causas, impacto y soluciones sostenibles
La demanda de agua por parte de la IA se ha convertido en un reto por el uso de centros de datos. La demanda energética y la refrigeración elevan su huella hídrica, especialmente en zonas con escasez. El traslado de la infraestructura a zonas más frías y húmedas, emplear agua regenerada o sumergir a los servidores en líquidos que absorben el calor son algunas de las soluciones.
¡Suscríbete a nuestra 'newsletter' semanal de sostenibilidad!
California alberga muchas de las grandes empresas tecnológicas que impulsan el desarrollo y la aplicación de la inteligencia artificial (IA). El llamado Estado Dorado, junto con amplias zonas del centro y oeste de Estados Unidos, sufre la peor crisis hídrica en décadas. La sequía persistente y la falta de nieve han agravado la situación.
¿Por qué aumenta el consumo de agua de la IA a nivel global?
El desarrollo de la IA no es ajeno al estrés hídrico del oeste norteamericano. Esta tecnología necesita muchos recursos para funcionar con eficiencia. Su consumo de agua no solo es directo, ya que se usa para refrigerar sistemas. También es indirecto, porque la generación de electricidad que los alimenta requiere grandes volúmenes de agua.
Pedro Martínez Santos, geólogo y director del grupo de investigación Hidrogeología y Medio Ambiente de la Universidad Complutense de Madrid, explica que en los últimos años han surgido controversias en la industria. El motivo principal es la ubicación de los centros de datos donde operan estas herramientas. Estas instalaciones consumen mucha agua y aumentan la huella hídrica.
“El gran polo tecnológico del mundo, Silicon Valley, es una zona con fuerte estrés hídrico y una notable sobreexplotación de acuíferos”, señala Martínez. Estados como California, Arizona y Nuevo México concentran muchos centros de datos. También ocurre en el este de Oregón y otras áreas del oeste y suroeste de Estados Unidos. Las ‘big tech’ los sitúan cerca de sus sedes.
Sin embargo, muchas de estas regiones son áridas o semiáridas. El agua escasea y la presión sobre los recursos ya es alta. En este contexto, la expansión de los centros de datos añade un nuevo factor que incrementa el consumo hídrico.
¿Cuáles son las principales causas del consumo de agua de la IA?
El uso de recursos hídricos por parte de la IA responde a varias causas:
- La enorme demanda energética de los modelos empleados por los sistemas.
- La necesidad de refrigeración constante en los centros de datos.
- La ubicación de los centros de datos en regiones con estrés hídrico.
- Crecimiento exponencial del uso de estas tecnologías, que multiplica su impacto sobre los recursos hídricos. En concreto, un estudio de UC Riverside estima que la IA podría consumir entre 312.000 y 764.000 millones de litros de agua al año.
¿Cómo influye el entrenamiento y la inferencia en el consumo hídrico de la IA?
Para entender el consumo de agua de la IA es clave, según reconoce Aitor Corchero, director de la unidad tecnológica de IT&OT Security del Centro Tecnológico de Cataluña (Eurecat), distinguir dos fases:
- Entrenamiento. En términos de ciclo de vida, el entrenamiento del software de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) equivale a “construir la máquina”, lo cual implica un proceso intensivo en recursos computacionales que puede durar semanas o meses. En los modelos más pequeños (SLM, por sus siglas en inglés) suele requerir un tiempo más corto. Pero el coste inicial debe amortizarse a lo largo de todas las consultas posteriores que ejecutan los usuarios.
- Inferencia. En cambio, la inferencia es la fase en la que utilizamos el modelo ya entrenado para obtener resultados. “Los modelos generativos de gran escala consumen en ambas fases: su entrenamiento es extremadamente intensivo en recursos y siguen consumiendo energía y agua cada vez que se utilizan”, subraya Corchero.
¿Qué impacto tiene el consumo de agua de la IA en un contexto de escasez hídrica?
El problema es global, atendiendo al Informe Mundial de las Naciones Unidas sobre el Desarrollo de los Recursos Hídricos 2025: los últimos datos disponibles (2022) establecen que unas 2.200 millones de personas en el planeta carecen de acceso a agua potable de manera segura; en zonas rurales, de hecho, cuatro de cada cinco personas carecen de servicios básicos de agua potable. En este contexto, el desarrollo de la IA añade presión a un sistema hídrico ya tensionado a escala global, más allá de casos concretos como el de Estados Unidos. La pregunta es si la IA puede avanzar hacia un uso más eficiente del agua en un mundo que atraviesa transformaciones drásticas en los patrones de consumo de agua y una presión creciente sobre los recursos hídricos.
¿Qué soluciones permiten reducir el consumo de agua de la IA en centros de datos?
Pedro Martínez expone una serie de posibles soluciones:
- Ubicar los centros de datos en regiones con mayores índices de humedad y de frío, normalmente con más agua natural alrededor. El científico propone el empleo de agua regenerada, depurada tras un uso anterior, porque para refrigerar no se requiere que sea de especial calidad. Este enfoque es especialmente útil en zonas con alta presión hídrica. Este investigador menciona el uso de refrigeración líquida en un circuito cerrado: “Evaporas el agua, la condensas y la vuelves a utilizar. Quizá puedes perder un poco de agua durante el proceso, pero reduces mucho los costes”, asegura el geólogo e investigador de la UCM. Empresas como Microsoft ya han anunciado centros de datos cuyos sistemas recirculan constantemente el agua, sin perderla y sin requerir más líquido.
- Optar por sistemas de refrigeración sin agua que pueden mejorar la eficiencia en el uso de recursos naturales. Frederic Clarens, director de la unidad tecnológica de Residuos, Energía e Impacto Ambiental de Eurecat, asegura que hay una “alternativa prometedora” como la refrigeración por inmersión: los servidores pueden sumergirse en líquidos dieléctricos que absorben el calor de forma mucho más eficiente que el aire. Esta tecnología permite atacar una de las principales causas del consumo hídrico: la necesidad de refrigeración intensiva. Esta solución permite reducir drásticamente, e incluso eliminar, el uso de agua en la refrigeración, según análisis del sector como los publicados por Data Center Frontier.
Además, se está estudiando la puesta en marcha de otras medidas como ubicar los centros de datos bajo tierra o sumergidos en el mar. Ya se han desarrollado pruebas reales. El proyecto Natick, de Microsoft, se ha basado en situar un centro de datos experimental bajo el agua, cerca de las costas de Escocia. Durante dos años han comprobado que el agua fría del océano podía refrigerar los servidores de forma natural y fiable. “También existen centros de datos subterráneos, por ejemplo, en antiguas minas, donde la temperatura del subsuelo se mantiene estable durante todo el año. Según la IEA, aprovechar estas condiciones naturales puede reducir significativamente el consumo energético y de recursos”, sostiene Martínez.
Más allá de la tecnología, empieza a cobrar relevancia el enfoque sistémico. Las estrategias de simbiosis industrial o de colaboración entre empresas suponen un gran potencial porque integran los centros de datos en entornos industriales. El calor se aprovecha para, por ejemplo, procesos industriales o sistemas de calefacción, lo que a su vez permite reducir tanto la necesidad de refrigeración como el consumo de agua asociado.
La eficiencia de los centros de datos en la UE: de los indicadores PUE a la calificación energética
El aumento del consumo energético asociado a la inteligencia artificial o el uso de las plataformas de ‘streaming’ ha llevado a la Unión Europea a establecer un marco común para evaluar la sostenibilidad de los centros de datos. Este sistema, impulsado por la Directiva de Eficiencia Energética y su normativa de desarrollo, obliga a los operadores a reportar indicadores clave sobre su funcionamiento. Entre ellos figuran el consumo total de energía, el uso de agua (WUE, water usage effectiveness) y métricas estandarizadas como el PUE, que permite medir la eficiencia energética de las instalaciones.
La información recopilada se integrará en una base de datos europea que facilitará la comparación del rendimiento entre los países. Sobre esa base, la Comisión Europea trabaja en una futura calificación energética común —aún en fase de diseño y comparable a las etiquetas de los electrodomésticos— que permitirá clasificar los centros de datos según su nivel de eficiencia y sostenibilidad. Esto servirá como base para posibles requisitos mínimos en los próximos años.
Preguntas frecuentes sobre el consumo de agua de la IA
¿Por qué la IA consume tanta agua?
El consumo de agua de la IA se debe principalmente a la refrigeración de centros de datos y a la generación de electricidad necesaria para su funcionamiento.
¿Cuánta agua consume la inteligencia artificial?
Estudios estiman que el consumo de agua de la IA puede alcanzar entre 312.000 y 764.000 millones de litros al año a nivel global.
¿Qué fases de la IA consumen más agua?
El entrenamiento de modelos consume grandes recursos inicialmente, mientras que la inferencia genera un consumo constante con cada uso.
¿Cómo se puede reducir el consumo de agua de la IA?
Mediante tecnologías como refrigeración por inmersión, uso de agua regenerada o ubicación de centros de datos en zonas frías.
¿El consumo de agua de la IA es un problema global?
Sí, especialmente en regiones con estrés hídrico, donde aumenta la presión sobre recursos ya limitados.