Conecta con nosotros

A Fondo

Cuando menos es más: cómo reducir el consumo de agua en el centro de datos

Publicado el

No solemos pensar en el agua cuando hablamos de Big Data, Inteligencia Artificial o la gestión de cargas críticas de trabajo. Y sin embargo, este recurso natural se ha convertido en un elemento vital cuando de lo que se trata es de refrigerar los centros de datos. A través de conductos especialmente diseñados para ello, muchas compañías utilizan agua para absorber el calor emitido por servidores y otras máquinas, asegurándose que mantienen su temperatura estable y pueden seguir funcionando sin interrupciones.

En momentos de cambio climático sin embargo, cuando la sequía y las olas de calor amenazan la supervivencia de buena parte del Planeta, cada vez se alzan más voces que claman contra el uso indiscriminado que hacen estos centros de un bien cada vez más escaso.

Un consumo ineficiente

En un centro de datos, los sistemas de refrigeración activa de los servidores, las propias torres de refrigeración y los distintos aires acondicionados, dependen principalmente del agua para mantener los equipos a una temperatura óptima. Y esto obviamente, se traduce en un consumo considerable…que en parte por falta de transparencia, no es fácil de cuantificar, ya que el agua que sirve a un CPD se emplea tanto para refrigerar los servidores, como para generar la electricidad que los mantiene activos.

Algunos sin embargo, lo han intentado. Un estudio publicado por el Uptime Institute sugiere que un gran centro de datos puede consumir hasta 25 millones de litros de agua cada año. Y un paper publicado sobre la materia en 2021, aseguraba que el consumo habitual de un centro de datos medio, se encuentra en los 567.000 litros anuales. No es precisamente poco. Y, lo que es peor, en países como Estados Unidos, hasta el 57% de este agua es apta para el consumo humano, lo cual resulta poco habitual en el sector industrial.

Que cada vez más comunidades locales se estén posicionando en contra de la instalación de centros de datos en sus territorios se debe de hecho, al gran impacto ambiental que pueden llegar a tener estas instalaciones, que además, han demostrado no ser precisamente intensivas a la hora de crear empleo. Y no, no todos los centros de datos dependen del agua para refrigerarse, pero se calcula que al menos una quinta parte de todos ellos tienen un impacto directo en este tipo de suministro. ¿Pero por qué se consume tanto? ¿Se puede consumir menos?

Tal y como señalan algunos expertos, gran parte del problema del uso de agua se debe a sistemas de refrigeración ineficientes, en particular a las torres de refrigeración. Estos equipamientos rocían el aire caliente generado por los servidores con agua, o pasan el aire a través de conductos húmedos. De esta forma, el calor se reduce a través del contacto con este elemento para después volver a circular como aire frío. En este proceso se pierden cantidades sustanciales de agua debido a la evaporación. Pero es que además, como en el agua pueden desarrollarse distintos patógenos, tiene que estar tratada con productos químicos tóxicos, que al evaporarse, también se liberan en el ambiente.

Por supuesto, muchas empresas han empezado a tomar nota. Multinacionales como Microsoft o Google apuestan cada vez más por instalar sus centros de datos en climas fríos, para reducir precisamente la necesidad de agua. Al utilizar aire externo que ya está enfriado por el entorno natural, ciertos elementos de refrigeración resultar innecesarios, o usarse solo durante las partes más cálidas del año. Y sin embargo, a medida que la temperatura incluso de las regiones árticas aumenta…

Optimizando el uso de agua para un menor impacto

Como hemos visto, que parte del agua que se utiliza para refrigerar los centros de datos sea potable, ha despertado no pocas suspicacias. Hay sin embargo otras alternativas que algunas compañías comienzan a tener en cuenta para reducir su impacto.

Una de las más evidentes, pasa por el uso de agua reciclada y no potable. Aunque es verdad que parte del agua se evapora, el resto suele descargarse y conducirse hasta una planta local de tratamiento de aguas residuales. En lugar de esto, estas empresas podrían optar por tratar ellas mismas este agua en sus instalaciones y utilizarla de nuevo. Compañías como OVHcloud son pioneras en esta práctica y Google asegura que el 25% del agua que utiliza es completamente reciclada.

Otra opción interesante es recurrir a la mayor fuente de agua disponible en la Tierra: el mar. Algunas empresas, como la propia Microsoft, han probado la viabilidad de poner en marcha servidores submarinos. Si bien es cierto que la inversión inicial es elevada, la temperatura fría de muchos océanos puede acabar compensando los costes de consumo energético.

Con todo, uno de los principales desafíos que encuentran las empresas es que siguen teniendo muchas dificultades a la hora de estimar correctamente las métricas que determinan la sostenibilidad de su centro de datos. Y es que como hemos apuntado con anterioridad, no es fácil determinar qué parte del consumo de agua corresponde al enfriamiento de los servidores y qué otra se emplea directamente para la generación de la electricidad necesaria para el funcionamiento integral del complejo. Y en ese sentido, a menos que el centro de datos dependa completamente de energías renovables como la eólica o la solar (que representan otra vía que se está explorando), el consumo de agua va a estar casi siempre implicado en esa generación eléctrica.

Por supuesto, esto no quiere decir que no haya iniciativas en marcha. En Europa, donde la regulación medioambiental es más estricta, ha comenzado a abordarse este problema de forma integral y en 2022, 70 compañías propietarias de centros de datos (incluyendo Google y Microsoft) firmaron el “European Climate Neutral Data Center Pact”, una iniciativa con la que esperan adelantarse a las más que probables regulaciones que las autoridades comunitarias impondrán en cuanto al uso responsable del agua, adoptándolas de forma proactiva antes de se conviertan en leyes de obligado cumplimiento.

En el futuro, muchos de estos esperan transicionar desde un modelo de uso intensivo de agua, a otro que opta por sistemas de refrigeración líquida en la que el agua ya no sea un componente «tan necesario». Conocidos como ”direct cooling”, este enfoque implica el uso de líquidos refrigerantes como el glicol, para extraer el calor de los componentes de TI directamente. Los sistemas de enfriamiento líquido se colocan en contacto directo con los dispositivos que generan calor, lo que permite una disipación de calor más rápida y eficiente. Posteriormente, el líquido calientes se llevan a un sistema de enfriamiento donde se disipa el calor y se enfrían nuevamente para repetir el proceso.

Está por ver sin embargo, si hay esperanza para un mundo cada vez más sediento. Los últimos acontecimientos climáticos nos están conduciendo directamente por el camino de la incertidumbre y no está nada claro que la ciencia tenga los recursos necesarios para dar respuestas eficaces a tiempo. E incluso si las tiene, que queremos hacer los sacrificios que seguramente serán necesarios.

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído