Noticias
El despliegue de la IA se enfrenta a un grave problema de suministro de energía
El CEO de Microsoft, Satya Nadella, afirmó durante una entrevista junto al CEO de OpenAI, Sam Altman, que el gran problema para el despliegue de la IA no radica en la capacidad de cómputo, sino en la falta de energía para alimentar las miles de aceleradoras que se están instalando en los centros de datos. Nadella fue descriptivo: en estos momentos no podemos conectar todas las GPUs que tenemos en el inventario.
El consumo de energía es uno de los grandes problemas para alimentar la descomunal infraestructura de inteligencia artificial proyectada para los próximos años. A medida que los sistemas de inteligencia artificial se expanden más y más, su huella energética crece aún más rápido y los últimos informes dicen que el consumo de energía de la IA amenaza incluso la sostenibilidad global del planeta. Y es que no solo hay que dotar de energía a los servidores, también refrigerarlos, con lo que el consumo de bienes como el de agua es un problema añadido.
«El mayor problema que tenemos ahora no es un exceso de capacidad de cómputo, sino de energía; es la capacidad de realizar las compilaciones con la suficiente rapidez y con la potencia necesaria», explicó Nadella. «Así que, si no se puede hacer eso, es posible que tengamos un montón de chips almacenados que no puedan usarse. De hecho, ese es mi problema hoy. No es un problema de suministro de chips; es que no tengo procesadores disponibles para usar«.
Energía y agua, suministros para el despliegue de la IA
La mención de «shells» por el CEO de Microsoft se refiere a la estructura de un centro de datos, que es esencialmente un edificio vacío con todos los elementos necesarios, como electricidad y agua, para comenzar la producción de inmediato. El consumo energético que supone el despliegue de la IA ha un tema de debate entre numerosos expertos. Este asunto cobró especial relevancia una vez que NVIDIA solucionó la escasez de GPU, y muchas empresas tecnológicas están invirtiendo ahora en solucionar un problema aún mayor.
La necesidad de contar con energía barata ha generado un renovado interés por la energía nuclear y en concreto por los reactores modulares pequeños (SMR, por sus siglas en inglés). Este tipo de reactores son mucho más pequeños que los reactores convencionales y se pueden construir en un lugar para luego transportarse e instalarse en la localización definitiva.
Casi todos los proveedores de nube e hiperescaladores han anunciado algún tipo de iniciativa en este ámbito. AWS colabora con X-Energy y Dominion Energy; Google apuesta por Kairos; Microsoft trabaja para revitalizar Three-Mile Island, y Oracle ha anunciado planes para desplegar al menos tres reactores SMR con más de un gigavatio de capacidad combinada. NVIDIA, el mayor gigante mundial en suministro de aceleradoras para IA, no quiere quedarse atrás y también ha anunciado inversiones propias, en concreto en la startup de reactores SMR respaldada por Bill Gates.
Parece que SMR es la apuesta de futuro para construir instalaciones de generación de energía propias, pero la última generación todavía se encuentra en la etapa de prototipo y tardarán años en desplegarse. ¿Hasta entonces, cómo alimentamos los centros de datos para saciar a la IA? Sigue el debate.
-
A FondoHace 6 díasPíldora roja o píldora azul
-
NoticiasHace 19 horasQNAP estrena la segunda beta abierta de QuTS hero h6.0
-
NoticiasHace 7 díasASUS presenta el portátil para empresas, ExpertBook B3 G2
-
NoticiasHace 6 díasNextcloud Hub 26 Winter: más facilidades para migración y mejoras en rendimiento y colaboración

