Microsoft presenta el acelerador maia 200 para optimizar la inferencia de IA en azure

Tiempo de lectura: 2 minutos
El nuevo procesador de tres nanómetros ofrece una mejora importante en la economía de la generación de tokens
Avatar photo
Redaccion

Microsoft anunció oficialmente el lanzamiento de Maia 200, un acelerador de inferencia de próxima generación diseñado para optimizar el rendimiento de Azure. Este procesador revolucionario busca mejorar la rentabilidad y la velocidad al ejecutar modelos de inteligencia artificial a gran escala.

Construido sobre el avanzado proceso de 3nm de TSMC, el chip contiene más de 140 mil millones de transistores adaptados para cargas de trabajo masivas. Scott Guthrie, vicepresidente ejecutivo de Cloud + IA, destacó que este silicio de primera mano es el más eficiente entre los hiperescaladores.

Especificaciones técnicas y capacidad de procesamiento líder en la industria

Maia 200 cuenta con un sistema de memoria rediseñado que incluye 216GB de HBM3e con un ancho de banda de 7 TB/s. El hardware entrega más de 10 petaFLOPS en precisión de 4 bits y más de 5 petaFLOPS en rendimiento de 8 bits.

Estas capacidades permiten que el acelerador supere en rendimiento a otros sistemas de la competencia, como el Trainium de Amazon o el TPU de Google. Además, es un 30% más eficiente por dólar que el hardware de última generación disponible en la flota actual de Microsoft.

Integración nativa con azure y soporte para desarrolladores

El acelerador forma parte de una infraestructura heterogénea que servirá para múltiples modelos, incluidos los últimos GPT-5.2 de OpenAI. Microsoft también presentó el SDK de Maia, un conjunto de herramientas para construir y optimizar modelos con soporte para PyTorch y compiladores Triton.

El equipo de Superintelligence de la empresa utilizará este hardware para la generación de datos sintéticos y el aprendizaje por refuerzo. Esta tecnología ayuda a acelerar la velocidad con la que se filtran datos de alta calidad para alimentar la formación de modelos posteriores.

Despliegue global y diseño optimizado para centros de datos

Maia 200 ya ha sido desplegado en la región de centros de datos US Central, cerca de Des Moines, Iowa. El sistema introduce una red de dos niveles construida sobre Ethernet estándar, lo que permite escalabilidad fluida en clústeres de hasta 6,144 aceleradores.

El enfoque de desarrollo nativo en la nube permitió reducir a menos de la mitad el tiempo de despliegue en comparación con programas previos. La integración con el plano de control de Azure garantiza seguridad y diagnóstico a nivel de chip para cargas críticas de producción.

 

Google News