TLDR Microsoft lanzó el chip Maia 200 para soportar tareas de IA en la nube exigentes y competir con los chips de Nvidia, AWS y Google. El Maia 200 ofrece un 30% mejor rendimientoTLDR Microsoft lanzó el chip Maia 200 para soportar tareas de IA en la nube exigentes y competir con los chips de Nvidia, AWS y Google. El Maia 200 ofrece un 30% mejor rendimiento

Microsoft presenta su chip de IA de segunda generación para fortalecer las capacidades en la nube

2026/01/27 01:33
Lectura de 4 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

TLDR

  • Microsoft lanzó el chip Maia 200 para soportar tareas exigentes de IA en la nube y competir con los chips de Nvidia, AWS y Google.
  • El Maia 200 ofrece un 30% mejor rendimiento al mismo costo y utiliza un proceso de 3nm para optimizar potencia y velocidad.
  • Microsoft instalará primero el Maia 200 en centros de datos de EE.UU. Central, seguido de EE.UU. West 3 y otras ubicaciones globales.
  • Un kit de desarrollo de software de vista previa está disponible para desarrolladores, investigadores y laboratorios que trabajan con modelos de IA de código abierto.
  • El Maia 200 impulsará Microsoft 365 Copilot, Microsoft Foundry y equipos internos de superinteligencia liderados por Mustafa Suleyman.

Microsoft ha introducido un nuevo chip de inteligencia artificial llamado Maia 200 que se enfoca en cargas de trabajo de computación en la nube. El chip llega dos años después de que Microsoft revelara su primer chip de IA, el Maia 100, que nunca estuvo ampliamente disponible para clientes en la nube. La compañía dijo que el Maia 200 llegará a más clientes y proporcionará una disponibilidad más amplia en el futuro.

Maia 200 busca competir en el mercado de procesadores de IA en la nube

Microsoft anunció que el Maia 200 podría servir como alternativa a los procesadores de Nvidia, Trainium de Amazon y las TPU de Google. Scott Guthrie, vicepresidente ejecutivo de nube e IA de Microsoft, dijo que el Maia 200 trae "mayor disponibilidad para clientes en el futuro". Microsoft dijo que el Maia 200 representa su sistema de inferencia más eficiente desplegado hasta la fecha.

Los desarrolladores, académicos y laboratorios de IA pueden solicitar una vista previa del kit de desarrollo de software Maia 200. La vista previa ofrece acceso temprano a herramientas para construir y optimizar cargas de trabajo de IA en el nuevo chip. Microsoft dijo que la vista previa ampliará la experimentación en modelos de IA de código abierto y casos de uso empresariales.

Microsoft dijo que su equipo de superinteligencia, liderado por Mustafa Suleyman, utilizará el Maia 200 para cargas de trabajo internas y de clientes. La compañía también confirmó que Microsoft 365 Copilot y Microsoft Foundry se ejecutarán en el nuevo chip. Estos servicios de ganancia incluyen complementos de software de productividad y marcos para construir sobre modelos grandes de IA.

Los proveedores en la nube enfrentan una creciente demanda de desarrolladores de modelos de IA como Anthropic y OpenAI, dijo Microsoft. Los operadores de centros de datos buscan mayor poder de computación en la nube mientras gestionan restricciones de energía y costos. En este entorno competitivo, las compañías buscan equilibrar el rendimiento con los gastos operativos y el uso de energía.

Detalles técnicos y planes de implementación para los chips Maia 200

Microsoft dijo que los chips Maia 200 utilizan el proceso de 3 nanómetros de Taiwan Semiconductor Manufacturing Co. La compañía dijo que coloca cuatro chips Maia 200 dentro de cada servidor, interconectados para aumentar el rendimiento. Microsoft explicó que el diseño utiliza cables Ethernet en lugar del estándar InfiniBand visto en las instalaciones de Nvidia.

La compañía declaró que el Maia 200 ofrece un 30 por ciento más de rendimiento a puntos de precio equivalentes en comparación con las alternativas. Microsoft dijo que cada Maia 200 incluye más memoria de alto ancho de banda que el Trainium de AWS o las TPU de séptima generación de Google. Este diseño arquitectónico busca soportar cargas de trabajo de inferencia de modelos a gran escala.

Microsoft también dijo que puede conectar hasta 6.144 chips Maia 200 para escalar el rendimiento aún más. La compañía afirmó que este enfoque ayuda a reducir el uso de energía y el costo total de propiedad. Microsoft mostró previamente que el Maia 100 podría ejecutar GitHub Copilot en 2023.

Microsoft dijo que implementará los chips Maia 200 primero en su región de centro de datos de EE.UU. Central. La compañía dijo que los chips llegarán más tarde a la región de EE.UU. West 3. Implementaciones globales adicionales seguirán estos despliegues iniciales.

La publicación Microsoft presenta chip de IA de segunda generación para fortalecer capacidades en la nube apareció primero en Blockonomi.

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

$30,000 en PRL + 15,000 USDT

$30,000 en PRL + 15,000 USDT$30,000 en PRL + 15,000 USDT

¡Deposita y opera PRL para mejorar tus premios!