A Fondo
GPU como servicio, una técnica para alimentar una IA insaciable de recursos

La GPU como servicio (GPUaaS) es una nueva técnica que algunas compañías especializadas han convertido en negocio y que tiene como objeto responder al ingente consumo de recursos de los grandes modelos de inteligencia artificial.
Aunque no son la única opción, las aceleradoras gráficas se han convertido en un componente de elección preferente a la hora de diseñar servidores y centros de datos para IA debido a su capacidad para gestionar de manera eficiente múltiples operaciones de manera simultánea, una característica fundamental en el desarrollo de modelos de aprendizaje profundo.
El problema es que no todas las empresas emergentes de IA tienen el presupuesto para invertir en el hardware necesario capaz de ejecutar los modelos de vanguardia y necesitan (o prefieren) externalizarlo. Como respuesta, en los últimos años han surgido empresas como Hyperbolic, Kinesis, Runpod o Vast.ai que ofrecen a sus clientes la potencia de procesamiento necesaria de manera remota.
GPU como servicio, un negocio emergente
Los mayores gigantes tecnológicos que ofrecen servicios de computación en la nube, como Amazon o Microsoft, son dueños de su infraestructura. Nuevas empresas, más pequeñas, pero innovadoras, han creado técnicas para aprovechar al máximo el cómputo inactivo existente. «Las empresas necesitan computación. Necesitan que se entrene el modelo o que se ejecuten sus aplicaciones; no necesariamente necesitan poseer o administrar servidores», dice Bina Khimani, cofundadora de Kinesis, como fundamento para ofrecer sus servicios.
Algunos estudios demuestran que más de la mitad de las GPU existentes no se utilizan en ningún momento. Ya se trate de ordenadores personales o de enormes granjas de servidores, hay una gran cantidad de capacidad de procesamiento que no se utiliza. Lo que hacen estas empresas especializadas es identificar la capacidad de procesamiento inactiva (tanto de GPU como de CPU) en servidores de todo el mundo y compilarla en una única fuente de procesamiento para que las empresas la utilicen.
Para ello, compañías como Kinesis se asocia con universidades, centros de datos, empresas e individuos que están dispuestos a vender su capacidad de procesamiento no utilizada. A través de un software especial instalado en sus servidores, la compañía detecta las unidades de procesamiento inactivas, las prepara y las ofrece a sus clientes para un uso temporal. Como explica la cofundador:
«Hemos desarrollado una tecnología para reunir la potencia informática fragmentada e inactiva y reutilizarla en una plataforma informática autogestionada y sin servidor… Los clientes, incluso tienen la posibilidad de elegir dónde quieren que se instalen sus GPUs o CPUs», explican de esta técnica novedosa.
Cuando los servidores no pueden seguir el ritmo de la IA
Inversiones multimillonarias en infraestructura de IA como la que conocimos ayer del Proyecto Stargate que se ha puesto en marcha en Estados Unidos o las anunciadas por gigantes tecnológicos como Microsoft, Google o Amazon, confirman que los grandes modelos de lenguaje y el aprendizaje automático consumen una cantidad de recursos descomunal.
Por si quedaba alguna duda, el CEO de OpenAI, Sam Altman, admitió el pasado otoño que su empresa no lanzaba productos con la frecuencia que deseaban porque se enfrentaban a «muchas limitaciones» en la capacidad de procesamiento. Igualmente, la directora financiera de Microsoft, Amy Woods, dijo a los inversores de la compañía en una conferencia telefónica que «la demanda de IA seguía sigue siendo mayor que la capacidad disponible».
Técnicas como la GPU como servicio pretenden ayudar a llenar ese vacío. A medida que los modelos de aprendizaje se vuelven más sofisticados, necesitan más potencia y una infraestructura que pueda procesar la información cada vez más rápido. En otras palabras, sin una cantidad suficiente de aceleradores, los grandes modelos de IA no pueden funcionar, y mucho menos mejorar.
La mayor ventaja de GPUaaS, como otros modelos de servicios externos bajo demanda, es económica. Al eliminar la necesidad de comprar y mantener la infraestructura física, permite a las empresas evitar invertir en servidores y gestión de TI y, en cambio, destinar sus recursos a mejorar su propio aprendizaje profundo, lenguaje de gran tamaño y modelos de visión de gran tamaño. También permite a los clientes pagar por la cantidad exacta de GPU que utilizan, lo que les permite ahorrar los costos de la inevitable inactividad informática que conllevarían sus propios servidores.
También son más sostenibles. Las empresas especializadas que no utilizan servidores, aseguran ser más respetuosas con el medio ambiente que las empresas tradicionales de computación en la nube. Al aprovechar las unidades de procesamiento existentes que no se utilizan en lugar de alimentar servidores adicionales, afirman que reducen significativamente el consumo de energía. Y es que la industria de la IA está avanzando rápidamente hacia una etapa en la que el enfoque está pasando de simplemente construir y entrenar modelos a optimizar la eficiencia, reduciendo consumos y emisiones de carbono.
La creciente demanda de aprendizaje automático y el consumo colosal de datos están convirtiendo a GPUaaS en un sector tecnológico muy rentable. En 2023, el tamaño del mercado de la industria se valoró en 3.230 millones de dólares; en 2024, creció a 4.310 millones de dólares. Se espera que aumente a 49.840 millones de dólares en 2032.
-
NoticiasHace 7 días
Los centros de datos tendrán problemas de espacio en Europa en 2025 por la expansión de la IA
-
A FondoHace 6 días
Xabier Uribe-Etxebarría, un pionero de la Inteligencia Artificial en España
-
A FondoHace 3 días
LG presenta sus novedades de señalización digital en ISE 2025
-
Notas de prensaHace 6 días
La inversión de IA en EMEA y el impacto de IT en las empresas