Microsoft ha introducido un nuevo chip de inteligencia artificial llamado Maia 200 que se enfoca en cargas de trabajo de computación en la nube. El chip llega dos años después de que Microsoft revelara su primer chip de IA, el Maia 100, que nunca estuvo ampliamente disponible para clientes en la nube. La compañía dijo que el Maia 200 llegará a más clientes y proporcionará una disponibilidad más amplia en el futuro.
Microsoft anunció que el Maia 200 podría servir como alternativa a los procesadores de Nvidia, Trainium de Amazon y las TPU de Google. Scott Guthrie, vicepresidente ejecutivo de nube e IA de Microsoft, dijo que el Maia 200 trae "mayor disponibilidad para clientes en el futuro". Microsoft dijo que el Maia 200 representa su sistema de inferencia más eficiente desplegado hasta la fecha.
Los desarrolladores, académicos y laboratorios de IA pueden solicitar una vista previa del kit de desarrollo de software Maia 200. La vista previa ofrece acceso temprano a herramientas para construir y optimizar cargas de trabajo de IA en el nuevo chip. Microsoft dijo que la vista previa ampliará la experimentación en modelos de IA de código abierto y casos de uso empresariales.
Microsoft dijo que su equipo de superinteligencia, liderado por Mustafa Suleyman, utilizará el Maia 200 para cargas de trabajo internas y de clientes. La compañía también confirmó que Microsoft 365 Copilot y Microsoft Foundry se ejecutarán en el nuevo chip. Estos servicios de ganancia incluyen complementos de software de productividad y marcos para construir sobre modelos grandes de IA.
Los proveedores en la nube enfrentan una creciente demanda de desarrolladores de modelos de IA como Anthropic y OpenAI, dijo Microsoft. Los operadores de centros de datos buscan mayor poder de computación en la nube mientras gestionan restricciones de energía y costos. En este entorno competitivo, las compañías buscan equilibrar el rendimiento con los gastos operativos y el uso de energía.
Microsoft dijo que los chips Maia 200 utilizan el proceso de 3 nanómetros de Taiwan Semiconductor Manufacturing Co. La compañía dijo que coloca cuatro chips Maia 200 dentro de cada servidor, interconectados para aumentar el rendimiento. Microsoft explicó que el diseño utiliza cables Ethernet en lugar del estándar InfiniBand visto en las instalaciones de Nvidia.
La compañía declaró que el Maia 200 ofrece un 30 por ciento más de rendimiento a puntos de precio equivalentes en comparación con las alternativas. Microsoft dijo que cada Maia 200 incluye más memoria de alto ancho de banda que el Trainium de AWS o las TPU de séptima generación de Google. Este diseño arquitectónico busca soportar cargas de trabajo de inferencia de modelos a gran escala.
Microsoft también dijo que puede conectar hasta 6.144 chips Maia 200 para escalar el rendimiento aún más. La compañía afirmó que este enfoque ayuda a reducir el uso de energía y el costo total de propiedad. Microsoft mostró previamente que el Maia 100 podría ejecutar GitHub Copilot en 2023.
Microsoft dijo que implementará los chips Maia 200 primero en su región de centro de datos de EE.UU. Central. La compañía dijo que los chips llegarán más tarde a la región de EE.UU. West 3. Implementaciones globales adicionales seguirán estos despliegues iniciales.
La publicación Microsoft presenta chip de IA de segunda generación para fortalecer capacidades en la nube apareció primero en Blockonomi.


