Conecta con nosotros

Noticias

Nvidia presenta la estación de trabajo DGX Station A100: Inteligencia Artificial para escritorio

Publicado el

Nvidia presenta la estación de trabajo DGX Station A100: Inteligencia Artificial para escritorio

Nvidia ha aprovechado la celebración de la conferencia de supercomputación SC20, que aunque anualmente se celebra en San Diego este año es virtual, para presentar lo que la propia compañía ha denominado como una herramienta que lleva la computación con Inteligencia Artificial al escritorio: la estación de trabajo DGX Station A100. Estará disponible este mismo trimestre, a través de diversos partners de Nvidia, y por ahora se desconoce su precio de venta.

La compañía cataloga este nuevo dispositivo como «un aparato de Inteligencia Artificial que puedes colocar en cualquier parte«. La caja que lo contiene mide 63,5 centímetros de alto, 50,8 centímetros de profundo y 25,4 centímetros de ancho, e incluye cuatro GPUs. Estas pueden ser de dos modelos, ambas basadas en la arquitectura de GPUs Ampere de la compañía: la A100 de 40 GB, ya existente, o una nueva versión de esta, con el doble de capacidad: 80 GB. De media pesa algo más de 41 kilos, aunque cuando está completamente equipado puede llegar a pesar 57,6 kilos.

En cuanto a su memoria, puede integrar hasta 320 GB. Pero por si no es suficiente, la DGX A100 también cuenta con una actualización, que consiste en un sistema montado en rack que le permite contar con hasta 640 GB de memoria de GPU.

Charlie Boyle, Vicepresidente y responsable de sistemas DGX en Nvidia, ha subrayado que «la DGX Station A100 saca la Inteligencia Artificial del centro de datos con un sistema de tipo servidor que puede enchufarse en cualquier parte. Los equipos de científicos de datos e investigadores en Inteligencia Artificial pueden acelerar su trabajo con la misma pila de software que los sistemas Nvidia DGX A100, lo que les permite escalar con facilidad de desarrollo a despliegue«.

Esta no ha sido la única novedad que ha presentado Nvidia en el marco del SC20. También ha anunciado la nueva versión de su tecnología de red InfiniBand, de Mellanox: 400G InfiniBand. Esta tecnología, que se integra en switches, cables, tarjetas adaptadoras y una nueva «unidad de proceso de datos», o DPU, de la compañía. Se caracteriza por alcanzar una velocidad de transmisión de 400 GB por segundo.

Una de sus principales bazas es que es capaz de utilizar cables de cobre de una longitud máxima de metro y medio. A partir de esta distancia utiliza transpondedores ópticos. La tecnología no solo permite una velocidad mayor, sino que además permite una interconexión mayor entre una mayor cantidad de dispositivos. Así, permite conectar hasta un millón de GPUs.

Gilad Shainer, Vicepresidente de redes en Nvidia, ha destacado que «el trabajo más importante de nuestros clientes se basa en la Inteligencia Artificial y en aplicaciones cada vez más complejas que demandan redes más rápidas, inteligentes y escalables. El gran rendimiento de la Nvidia Mellanox 400G InfiniBand y sus motores de aceleración inteligentes permiten que las infraestructuras de computación de alto rendimiento, Inteligencia Artificial y nube a hiperescala consigan un rendimiento sin igual con menos coste y complejidad«.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído