Conecta con nosotros

Noticias

La creciente adopción de modelos de IA avanzados podría desencadenar una crisis en el sector GPU

Publicado el

GPUs para acelerar IA

ChatGPT se ha convertido en un auténtico fenómeno, y ha generado un interés enorme entre numerosos gigantes del sector tecnológico. Microsoft ha sido, sin duda, la compañía que más interés ha demostrado, pero debemos tener claro que esto solo es en realidad la punta del iceberg, y que la adopción de modelos de IA cada vez más avanzados no hará más que crecer en los próximos años.

Esta realidad nos lleva a una cuestión muy importante, el hardware sobre el que se asientan esos modelos avanzados de inteligencia artificial. A día de hoy la mayoría se apoya sobre hardware dedicado de NVIDIA, concretamente sobre GPUs de dicho fabricante, de hecho ChatGPT fue entrenada sobre un total de 10.000 aceleradoras gráficas de NVIDIA. No he podido conocer qué modelos exactos se utilizaron, pero imagino que se trataría de la serie Tesla basada en la arquitectura Ampere, que viene con núcleos Tensor de tercera generación especializados en IA, inferencia y aprendizaje profundo.

Lo que acabo de decir puede acabar convirtiéndose en un problema importante, porque significa que hay una dependencia enorme de las GPUs de NVIDIA en el mundo de la inteligencia artificial, debido no solo a su rendimiento sino también a su soporte. CUDA sigue jugando un papel fundamental en numerosos modelos de programación a día de hoy por su facilidad y su capacidad de paralelizado, y muchas librerías y frameworks de aprendizaje profundo, como TensorFlow y PyTorch, no solo son compatibles con CUDA, sino que además están optimizadas para las GPUs de NVIDIA.

Con Google y Microsoft apostando por ChatGPT, y con la inteligencia artificial despuntando y afianzándose cada vez en más sectores, está claro que la demanda de aceleradores gráficos (GPUs) de NVIDIA no hará más que crecer en los próximos años, y esto podría acabar desencadenando una crisis en el sector GPU si la demanda acaba superando enormemente a la oferta.

Puede que alguno crea que estamos exagerando, pero la verdad es que tenemos datos muy claros que refuerzan esta idea. Por ejemplo, se estima que Google necesitaría un total de 512.820 servidores NVIDIA A100 HGX para poder integrar ChatGPT en su conocido buscador de forma plena. En total, eso equivale a la friolera de más de 4.102 millones de GPUs A100, y tendría un coste para Google de más de 100.000 millones de dólares.

Esto sería aplicándolo únicamente a un gigante, así que pensad en cómo podría dispararse la demanda de GPUs si se produce una adopción en masa de la IA y de soluciones como ChatGPT. Puede que con la llegada de futuras arquitecturas gráficas la cantidad total de GPUs necesarias se reduzca, pero al final es un hecho incuestionable que la demanda de este tipo de soluciones acabará siendo cada vez mayor.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

Lo más leído