Conecta con nosotros

Noticias

Nvidia pone a la venta chips de IA que contribuirán a la mejora de los chatbots y que irrumpirán en AWS y Google Cloud

Publicado el

Si algo ha demostrado a lo largo de los últimos años Nvidia, empresa de software y fabless que diseña unidades de procesamiento de gráficos, es su capacidad para adaptarse a las circunstancias y utilizar las oportunidades de mercado en su beneficio propio para lanzar nuevas líneas de productos y servicios.

Así ha sido como en su conferencia anual de desarrolladores, la Conferencia de Tecnología GPU 2023, ha presentado sus nuevos avances para el sector de la inteligencia artificial, los cuales supondrán un punto de inflexión en la informática. El director ejecutivo de la compañía, Jensen Huang, asegura que Nvidia es el motor que se encuentra tras ‘el momento iPhone de la IA’. Solo así demostrará cómo su tecnología es capaz de contribuir al progreso de la IA.

Y esto es posible gracias a su nueva serie de chips, servicios de supercomputación y una serie de asociaciones de alto perfil que empresas e instituciones de todo el mundo están incorporando en sus respectivas aplicaciones corporativas para ofrecer un servicio más eficiente, tal y como sucede con los chatbots y los generadores gráficos más llamativos.

De hecho, Microsoft ha invertido cientos de millones de dólares en comprar decenas de miles de chips gráficos Nvidia A100 para que su socio, OpenAI, pudiese entrenar los modelos de lenguaje natural (LLM) en sus nuevos chatbots de IA tanto de Bing como de ChatGPT.

Una tecnología al alcance de todos

Se abre un nuevo horizonte, pues si Nvidia comienza a alquilar paquetes de chips de IA a través de su nueva unidad DGX Cloud de Nvidia, cualquiera podrá tener acceso web remoto a un espacio extra para alojar nuestro propio proyecto LLM.

Ese servicio de alquiler de versiones virtuales a través de sus paquetes DGX Server se ofrece con ocho GPU Nvidia H100 o A100 y 640 GB de memoria cada uno. De igual modo, se incluyen interconexiones que escalan hasta los 32.000 GPU de almacenamiento, software y acceso directo para optimizar el código. Aunque los precios oscilan considerablemente, podemos encontrarlos desde 36.999 dólares al mes en el caso del nivel A100.

Por su parte, una caja de servidor DGX física puede llegar a costar más de 200.000 dólares por el mismo hardware si se comprase directamente. Todo ello demuestra que compañías como Microsoft hicieron un esfuerzo mayúsculo para poder construir sus propios centros de datos en torno a la tecnología de IA puesta al servicio de los chatbots y otros software eficientes.

Su procedencia

La cuestión ahora es saber de dónde procederán esas GPU que Nvidia utilizará para que cualquier usuario o empresa pudiese configurar sus propios chatbots mediante el uso de IA. Algunas de esas GPU puede que sean las mismas que Microsoft emplease para entrenar los modelos de OpenAI.

Sabemos ya que Microsoft Azure es uno de los grupos que ofrecerá cobertura óptima a DGX Cloud, aunque según Nvidia, los clientes tendrán acceso reservado de tiempo completo a aquellas GPU que están alquilando, no siendo necesario que se compartiesen con otros usuarios.

Junto a Microsoft, se espera que se incorporen otros socios como Oracle y Google Cloud, los cuales albergarán la plataforma. A esto se le suma el poder de Amgen, que estaría usando DGX Cloud para descubrir nuevos medicamentos de una forma más rápida, mientras que la compañía de seguros CCC y el proveedor de TI ServiceNow lo podrían estar empleando para entrenar sus modelos de inteligencia artificial en pro del procesamiento de reclamos y para la generación de código.

Todo ello nos demuestra que la irrupción de los chips de IA es parte del presente, y que Nvidia ha sabido ver aquí una oportunidad inigualable. Los últimos avances de la compañía se han enfocado en estandarizar el Path Tracing como la tecnología del futuro en ordenadores, aunque sigue siendo al prohibitivo. Con ello se crea un software, mediante IA, que permite a los equipos de desarrollo mejorar la iluminación de los juegos, algo que se ha visto en Quake RTX y Portal RTX.

Lo más leído