Conecta con nosotros

Noticias

Microsoft Maia 200, un chip IA para reducir la dependencia de NVIDIA

Publicado el

Maia 200

Microsoft ha presentado el Maia 200, su nuevo chip interno para sistemas de inteligencia artificial con el que pretende reducir la dependencia de NVIDIA o AMD y competir con los desarrollos de Amazon y Google en centros de datos.

En plena carrera por dominar los servicios de IA generativa, todas las grandes tecnológicas están desarrollando chips de factura propia. Microsoft  estrenó en 2023 la plataforma Azure Maia AI, desarrolló la CPU Cobalt y anunció el chip Maia 100. Ahora llega la segunda generación que apuesta por el rendimiento por dólar y la eficiencia como principales características.

Maia 200 es un acelerador de IA diseñado para cargas de trabajo de inferencia. Si el Maia 100 se construyó en procesos tecnológicos de 5 nm, la segunda generación está basado en en el nodo de proceso de 3 nm de TSMC e incluye núcleos tensoriales FP8/FP4 nativos. Admite 216 GB de memoria HBM3e con 7 TB/s de ancho de banda, además de 272 MB de memoria SRAM en el chip.

Microsoft ha asegurado que se trata del silicio interno de mayor rendimiento diseñado por la firma de Redmond y también de cualquier hiperescalador, incluyendo Amazon y Google. Sorpresivamente, Microsoft publicó una tabla comparativa que muestra al Maia 200 con chips equivalentes de los otros dos gigantes. Según la tabla publicada, el Maia 200 ofrece casi el doble de rendimiento FP8 que el Trainium de tercera generación de Amazon y aproximadamente un 10% más que el TPU de séptima generación de Google.

El Maia 200 también quiere reducir la dependencia del gran líder del sector, NVIDIA, y soluciones como el Blackwell B300 Ultra, aunque aquí las comparaciones directas son relativas. La aceleradora de NVDIA se vende a clientes externos, está optimizada para casos de uso de mucha mayor potencia que el chip de Microsoft y la pila de software se lanza mucho antes que cualquier otro modelo contemporáneo.

Maia 200, la apuesta por la eficiencia

Donde sí destaca el chip de Microsoft es en eficiencia energética y rendimiento por precio. Microsoft asegura un rendimiento un 30% superior por dólar que el hardware de última generación implementado actualmente en Azure. Maia 200 también está diseñado para implementaciones de escalado vertical, con una tarjeta de red integrada en la matriz (NIC) con 2,8 TB/s de ancho de banda bidireccional para la comunicación a través de un clúster de 6144 aceleradores.

El Maia 200 opera a casi la mitad del TDP del B300 de NVIDIA (750 W frente a 1400 W) y si funciona como la versión original, operará por debajo de su TDP máximo teórico. El mensaje de Microsoft, que prioriza la eficiencia, sigue su tendencia reciente de enfatizar la preocupación de la corporación por las comunidades cercanas a sus centros de datos, esforzándose por atenuar las reacciones negativas al auge de la IA. El director ejecutivo de Microsoft, Satya Nadella, habló recientemente en el Foro Económico Mundial de Davos sobre la necesidad de que la IA demuestre su utilidad real para no perder lo que llamó el «permiso social» y crear la temida burbuja de la IA de la que no pocos están alertando.

A diferencia del Maia 100, que se anunció mucho antes de su implementación, Maia 200 ya está implementado en centros de datos principales de Microsoft en Estados Unidos. El chip puede funcionar con diversos modelos de IA, incluidos los modelos GPT-5.2 de OpenAI, lo que permite a la empresa ofrecer funciones de IA en Microsoft 365 y otros servicios. El equipo de Superinteligencia de Microsoft también lo utilizará para la generación de datos sintéticos y el aprendizaje de refuerzo para desarrollar futuros modelos internos.

Para ayudar a desarrolladores y startups a optimizar sus herramientas y modelos para Maia 200, Microsoft ha lanzado una versión preliminar del SDK. Incluye integración con PyTorch, un compilador Triton, bibliotecas de kernel optimizadas y acceso al lenguaje de programación de bajo nivel de Maia.

Lo más leído