TLDR Microsoft a lancé la puce Maia 200 pour prendre en charge les tâches IA cloud exigeantes et concurrencer les puces Nvidia, AWS et Google. La Maia 200 offre des performances supérieures de 30%TLDR Microsoft a lancé la puce Maia 200 pour prendre en charge les tâches IA cloud exigeantes et concurrencer les puces Nvidia, AWS et Google. La Maia 200 offre des performances supérieures de 30%

Microsoft dévoile une puce d'IA de deuxième génération pour renforcer ses capacités cloud

2026/01/27 01:33
Temps de lecture : 4 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

TLDR

  • Microsoft a lancé la puce Maia 200 pour prendre en charge les tâches d'IA cloud exigeantes et concurrencer les puces de Nvidia, AWS et Google.
  • La Maia 200 offre 30 % de performances supplémentaires au même coût et utilise un processus 3 nm pour optimiser la puissance et la vitesse.
  • Microsoft installera d'abord la Maia 200 dans les centres de données du centre des États-Unis, puis dans l'ouest 3 des États-Unis et d'autres emplacements mondiaux.
  • Un kit de développement logiciel en version préliminaire est disponible pour les développeurs, chercheurs et laboratoires travaillant avec des modèles d'IA open source.
  • La Maia 200 alimentera Microsoft 365 Copilot, Microsoft Foundry et les équipes de superintelligence internes dirigées par Mustafa Suleyman.

Microsoft a présenté une nouvelle puce d'intelligence artificielle appelée Maia 200 qui cible les charges de travail de cloud computing. La puce arrive deux ans après que Microsoft a dévoilé sa première puce d'IA, la Maia 100, qui n'a jamais été largement disponible pour les clients cloud. L'entreprise a déclaré que la Maia 200 atteindra plus de clients et offrira une plus large disponibilité à l'avenir.

La Maia 200 vise à concurrencer le marché des processeurs d'IA cloud

Microsoft a annoncé que la Maia 200 pourrait servir d'alternative aux processeurs de Nvidia, au Trainium d'Amazon et aux TPU de Google. Scott Guthrie, vice-président exécutif de Microsoft pour le cloud et l'IA, a déclaré que la Maia 200 apporte « une plus large disponibilité client à l'avenir ». Microsoft a déclaré que la Maia 200 représente son système d'inférence le plus efficace déployé à ce jour.

Les développeurs, universitaires et laboratoires d'IA peuvent postuler pour une version préliminaire du kit de développement logiciel Maia 200. La version préliminaire offre un accès anticipé aux outils pour créer et optimiser les charges de travail d'IA sur la nouvelle puce. Microsoft a déclaré que la version préliminaire élargira l'expérimentation sur les modèles d'IA open source et les cas d'usage d'entreprise.

Microsoft a déclaré que son équipe de superintelligence, dirigée par Mustafa Suleyman, utilisera la Maia 200 pour les charges de travail internes et clients. L'entreprise a également confirmé que Microsoft 365 Copilot et Microsoft Foundry fonctionneront sur la nouvelle puce. Ces services incluent des modules complémentaires de logiciels de productivité et des frameworks pour construire au-dessus de grands modèles d'IA.

Les fournisseurs de cloud font face à une demande croissante des développeurs de modèles d'IA tels qu'Anthropic et OpenAI, a déclaré Microsoft. Les opérateurs de centres de données recherchent une puissance de calcul plus élevée tout en gérant les contraintes énergétiques et de coûts. Dans cet environnement concurrentiel, les entreprises visent à équilibrer les performances avec les dépenses opérationnelles et la consommation d'énergie.

Détails techniques et plans de déploiement pour les puces Maia 200

Microsoft a déclaré que les puces Maia 200 utilisent le processus 3 nanomètres de Taiwan Semiconductor Manufacturing Co. L'entreprise a déclaré qu'elle place quatre puces Maia 200 dans chaque serveur, interconnectées pour augmenter le débit. Microsoft a expliqué que la conception utilise des câbles Ethernet plutôt que la norme InfiniBand observée dans les installations Nvidia.

L'entreprise a déclaré que la Maia 200 offre 30 % de performances supérieures à des prix équivalents par rapport aux alternatives. Microsoft a déclaré que chaque Maia 200 inclut plus de mémoire à large bande passante que le Trainium d'AWS ou les TPU de septième génération de Google. Cette conception architecturale vise à prendre en charge les charges de travail d'inférence de modèles à grande échelle.

Microsoft a également déclaré pouvoir connecter jusqu'à 6 144 puces Maia 200 pour augmenter encore les performances. L'entreprise a affirmé que cette approche aide à réduire la consommation d'énergie et le coût total de propriété. Microsoft avait précédemment montré que la Maia 100 pouvait exécuter GitHub Copilot en 2023.

Microsoft a déclaré qu'elle déploiera d'abord les puces Maia 200 dans sa région de centre de données du centre des États-Unis. L'entreprise a déclaré que les puces arriveront plus tard dans la région ouest 3 des États-Unis. Des déploiements mondiaux supplémentaires suivront ces déploiements initiaux.

L'article Microsoft dévoile une puce d'IA de deuxième génération pour renforcer les capacités cloud est apparu en premier sur Blockonomi.

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

30 000 $ en PRL + 15 000 USDT

30 000 $ en PRL + 15 000 USDT30 000 $ en PRL + 15 000 USDT

Déposez et tradez PRL pour booster vos récompenses !