Conecta con nosotros

Noticias

NVIDIA prepara una aceleradora A100 PCIE con 80 GB de HBM2

Publicado el

NVIDIA

El núcleo gráfico GA100 es la GPU más grande que ha desarrollado NVIDIA basada en la arquitectura Ampere, y representa un importante salto generacional frente a Turing. En su interior, encontramos un total de 54.000 millones de transistores, una cifra descomunal si tenemos en cuenta que este chip apenas llega a los 826 mm cuadrados.

La aceleradora gráfica A100 monta esa GPU, y está disponible en dos versiones, una basada en el sistema de conexión SXM4 y otra más tradicional, de tipo PCIE Gen4. Ambos modelos ofrecen un rendimiento bruto similar, pero como habréis podido intuir presentan diferencias notables en lo que respecta a la interconexión y al escalado vía NVLink.

MCPRO Recomienda

Transformación Digital en España ¡Participa y envíanos tu caso de éxito!
Tendencias de inversión TIC en 2021 ¡Descárgate el informe!

En su configuración base, la NVIDIA A100 viene con 40 GB de memoria HBM2, una solución que es capaz de ofrecer un alto ancho de banda, una pieza clave para sacar adelante diversas tareas que giran alrededor de diferentes cargas de trabajo, como la inteligencia artificial, el aprendizaje profundo y las simulaciones complejas que consumen una gran cantidad de memoria, y que requieren de una entrada-salida constante de datos.

Actualmente, existe una versión con 80 GB de memoria HBM2, pero está limitada a la interfaz SXM4. No sabíamos si NVIDIA tenía pensado lanzar esa misma versión adaptada al estándar PCIE Gen4, pero hoy podemos confirmar que sí, y que será lanzado la semana que viene. Este modelo mantendrá el diseño de la versión con 40 GB de HBM2, y alcanzará un ancho de banda apabullante, con nada más y nada menos que 2 TB/s.

El resto de sus especificaciones no cambian, lo que significa que esa nueva aceleradora gráfica contará con 6.912 núcleos CUDA (shaders) y 432 núcleos tensor. En términos de potencia, hablamos de una solución que es capaz de ofrecer 312 TFLOPs en procesos de entrenamiento de inteligencia artificial, 1.248 TOPs en inferencia INT8, 19,5 TFLOPs de potencia en FP32 y 9,7 TFLOPs en FP64.

No conocemos el precio que tendrá la versión con 80 GB de memoria HBM2, pero está claro que va a ser elevado. Como referencia, basta recordar que la versión PCIE con 40 GB de memoria HBM2 llegó al mercado con un precio al cambio de 11.070 euros. Esta versión también tiene un ancho de banda inferior, concretamente de 1,55 TB/s.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!