Conecta con nosotros

A Fondo

NVIDIA AI Enterprise, casi todo lo que tienes que saber

Publicado el

Hace casi tres años os hablábamos de NVDIA AI Enterprise, una una plataforma de software que cuenta con herramientas diseñadas para que las empresas puedan explotar al máximo sus cargas de trabajo de Inteligencia Artificial y que nacía como fruto de colaboración entre la propia NVIDIA y VMware para la virtualización de esas cargas.

En la presentación de esta suite inteligente, sus responsables aseguraban que la nueva plataforma nacía para poner en manos de los profesionales todo lo que necesitan para desarrollar una gran cantidad de aplicaciones apoyadas en IA, desde soluciones avanzadas de diagnóstico médico, herramientas para la industria 4.0 o aplicaciones para la detección de fraude en servicios financieros.

NVIDIA AI Enterprise es compatible con un amplio conjunto de aplicaciones con aceleración CUDA, frameworks de inteligencia artificial, modelos previamente entrenados y kits de desarrollo de software que se ejecutan en la nube híbrida. Las optimizaciones permiten que las cargas de trabajo se escalen en varios nodos, lo que se traduce en un soporte total de grandes modelos de capacitación de aprendizaje profundo con virtualización completa a nivel de GPU.

Disponible en algunos servicios de cloud público, como sobre todo en servidores certificados como pueden ser los nuevos HPE ProLiant Gen11, la plataforma de NVIDIA ha sido desarrollada para optimizar cada una de las etapas que forman parte del workflow IA, desde la preparación de datos hasta el entrenamiento, la inferencia y la implementación (por ejemplo en contenedores propios de IA). Tal y como destaca la propia compañía, NVIDIA AI Enterprise..

  • Acelera los procesos de ciencia de datos para obtener un rendimiento hasta 70 veces más rápido y aumentar la rentabilidad hasta 20 veces con NVIDIA Rapids (conjunto de librerías de IA y datas science aceleradas en GPU con APIs que se adaptan a las herramientas de datos de código abierto más populares).
  • Acelera el desarrollo de IA 10 veces usando el Kit de Herramientas NVIDIA TAO (conjunto de herramientas para el entrenamiento y la optimización de la IA) sin necesidad de hacer una gran inversión en el desarrollo de skills relacionadas con la IA
  • Logra un costo total de operación hasta 97 veces mejor y una latencia 100 veces menor con el Servidor de Inferencia NVIDIA Tritonvy NVIDIA A100 en comparación con la configuración solo de CPU.

Cómo implementarlo en la empresa

Identificada la necesidad de procesar cargas de trabajo de IA en la organización, la compañía ofrece distintas opciones para su implementación. La más habitual en sectores críticos suele pasar por su despliegue en un CPD virtualizado, utilizando para ello VMware vSphere y Tanzu. Esto tiene la ventaja de facilita escalar a varios nodos, lo que permite que incluso los modelos de entrenamiento de deep learning más grandes se ejecuten en VMware vSphere with Tanzu y VMware Cloud Foundation with Tanzu.

Pero no es la única forma de hacerlo. También podemos desplegar nuestras cargas de trabajo en servidores certificados por NVIDIA (como los HPE Proliant Gen11)) utilizando para ello la plataforma de contenedores Red Hat OpenShift.

Este caso su uso es especialmente adecuado para acelerar los trabajos de inferencia y modelado de machine learning (ML) que exigen mucha computación, agilizando la entrega de aplicaciones inteligentes, incluida la IA conversacional y Vision IA, con MLOps integrado, lo que facilita la colaboración entre los equipos. Esto permite que los modelos de ML se integren rápidamente durante el desarrollo y se implementen en producción.

De todo esto os hablamos en «Inteligencia Artificial: el valor real para tu empresa» una completa guía en la que examinamos de qué forma está impacto la IA en las empresas y cómo va a evolucionar en los próximos años. ¡No te lo pierdas!

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído