Conecta con nosotros

Noticias

Gcore revolucionará Europa con un clúster de IA Generativa con GPU de NVIDIA

Publicado el

Gcore ha confirmado que aprovechará su posición preferente en servicios cloud en todo el mundo para lanzar su nuevo proyecto de IA. Todo se iniciará con Gcore Generative AI Cluster, impulsado por las GPU NVIDIA A100 y H100 Tensor Core. Con esto, se conseguirá acelerar la capacitación de modelos para aplicaciones de IA Generativa y situar a Europa en una posición preferente en este ámbito.

Gcore busca contrarrestar el poder de EEUU y China en materia de IA, que acaparan el 80%. Hay que destacar que, según un informe del Banco Europeo de Inversiones de 2021, la UE solo representa el 7% de las inversiones en materia de IA y blockchain. De ahí que el objetivo del viejo continente sea invertir unos 1.000 millones de euros al año.

La propuesta eficiente de Gcore

El clúster consta de 20 servidores con GPU NVIDIA A100, pero Gcore se marca el objetivo de incorporar 128 servidores adicionales con GPU NVIDIA H100 a su clúster de Luxemburgo y otros 25 con GPU A100. La compañía contaba con una oferta basada en IA IPU en dicho país, así como otra en Países Bajos y una tercera en Gales. También han establecido un punto de apoyo en EEUU, con grupos de IA en Manassas (Virginia).

Gracias al nuevo clúster de Gcore, los usuarios podrán acceder a las implementaciones de IA mediante Kubernetes administrados con modelos GPU de NVIDIA, pudiendo configurar espacios de trabajo en MLOps y modelos a gran escala.

En esta línea, Andre Reitenbach, director ejecutivo de Gcore, asegura que el lanzamiento de AI Cluster supondrá el inicio de una nueva era de oportunidades para el desarrollo y la investigación de la IA en Europa y Reino Unido, con una infraestructura de vanguardia.

El objetivo es que las nuevas inferencias en el borde de Gcore se aplicasen a gran escala a partir del primer trimestre de 2024. Recordar que tiene PoP en más de 150 regiones y más de 20 ubicaciones de nube.

Los clientes tendrán la opción de implementar los modelos previamente entrenados en el borde para una baja latencia e implementar código abierto listo para usar. Recordar que modelos como Whisper o Llama están basados en GPU NVIDIA L40, diseñados exclusivamente para la inferencia.

El objetivo que se marca Gcore es contar con hasta 100 nodos de inferencia disponibles en todos sus entornos perimetrales en 2024, estando conectados mediante su enrutamiento inteligente y CDN. Se conectarán directamente con el usuario final, transfiriendo solicitudes de forma eficiente al nodo de inferencia más próximo.

Y es que gracias a los procesadores L40 o Ampere, la información viajará de un nodo CDN a otro con plena sencillez. Todo ello con baja latencia y proporcionando una interacción en tiempo real con el modelo ML.

Para el entrenamiento de modelos de muy alta densidad y elevada carga, Gcore se sirve de clústeres de GPU con InfiniBand. Por su parte, las CPU basadas en Arm pueden tener más demanda que las GPU, de tal modo que la empresa ofrece procesadores Ampere para que los clientes dispongan de una mayor variedad de opciones, acordes a sus múltiples necesidades.

La posición estratégica de Gcore

Gcore brinda servicios de infraestructura y plataforma, en nube y en IA, a clientes y negocios de todo el mundo. Sus servicios de infraestructura básicos incluyen almacenamiento y computación bare metal, máquinas virtuales, balanceadores de carga y almacenamiento externo. Además, con kubernetes administrados se pueden establecer ajustes de escala y reparaciones automáticas.

Gcore aplica sus servicios especialmente al sector de los juegos y el streaming de servidores multijugador. Su prestación abarca desde la puesta en escena y producción hasta la distribución del producto, el análisis y la repetición. De igual modo, están trabajando con grandes empresas de telecomunicaciones para la distribución de contenidos y servicios 5G.

Por otra parte, Gcore también posee una gran presencia en el ámbito de la sanidad, especialmente en plataformas de telemedicina y registros médicos electrónicos. Los clientes en Fintech utilizan servicios de infraestructura para ejecutar sus plataformas de pago, mientras que las empresas de medios ejecutan sesiones de transcodificación en la nube.

La mayoría de sus clientes utilizan aplicaciones que se ejecutan en arquitectura x 86, pero muchas precisan de la arquitectura Arm, con mayor rendimiento para determinados casos de uso. Hay clientes que desean mantener una infraestructura basada en instancias virtuales o bare metal apoyado sobre la arquitectura Arm de Ampere.

Lo más leído