Microsoft a présenté une nouvelle puce d'intelligence artificielle appelée Maia 200 qui cible les charges de travail de cloud computing. La puce arrive deux ans après que Microsoft a dévoilé sa première puce d'IA, la Maia 100, qui n'a jamais été largement disponible pour les clients cloud. L'entreprise a déclaré que la Maia 200 atteindra plus de clients et offrira une plus large disponibilité à l'avenir.
Microsoft a annoncé que la Maia 200 pourrait servir d'alternative aux processeurs de Nvidia, au Trainium d'Amazon et aux TPU de Google. Scott Guthrie, vice-président exécutif de Microsoft pour le cloud et l'IA, a déclaré que la Maia 200 apporte « une plus large disponibilité client à l'avenir ». Microsoft a déclaré que la Maia 200 représente son système d'inférence le plus efficace déployé à ce jour.
Les développeurs, universitaires et laboratoires d'IA peuvent postuler pour une version préliminaire du kit de développement logiciel Maia 200. La version préliminaire offre un accès anticipé aux outils pour créer et optimiser les charges de travail d'IA sur la nouvelle puce. Microsoft a déclaré que la version préliminaire élargira l'expérimentation sur les modèles d'IA open source et les cas d'usage d'entreprise.
Microsoft a déclaré que son équipe de superintelligence, dirigée par Mustafa Suleyman, utilisera la Maia 200 pour les charges de travail internes et clients. L'entreprise a également confirmé que Microsoft 365 Copilot et Microsoft Foundry fonctionneront sur la nouvelle puce. Ces services incluent des modules complémentaires de logiciels de productivité et des frameworks pour construire au-dessus de grands modèles d'IA.
Les fournisseurs de cloud font face à une demande croissante des développeurs de modèles d'IA tels qu'Anthropic et OpenAI, a déclaré Microsoft. Les opérateurs de centres de données recherchent une puissance de calcul plus élevée tout en gérant les contraintes énergétiques et de coûts. Dans cet environnement concurrentiel, les entreprises visent à équilibrer les performances avec les dépenses opérationnelles et la consommation d'énergie.
Microsoft a déclaré que les puces Maia 200 utilisent le processus 3 nanomètres de Taiwan Semiconductor Manufacturing Co. L'entreprise a déclaré qu'elle place quatre puces Maia 200 dans chaque serveur, interconnectées pour augmenter le débit. Microsoft a expliqué que la conception utilise des câbles Ethernet plutôt que la norme InfiniBand observée dans les installations Nvidia.
L'entreprise a déclaré que la Maia 200 offre 30 % de performances supérieures à des prix équivalents par rapport aux alternatives. Microsoft a déclaré que chaque Maia 200 inclut plus de mémoire à large bande passante que le Trainium d'AWS ou les TPU de septième génération de Google. Cette conception architecturale vise à prendre en charge les charges de travail d'inférence de modèles à grande échelle.
Microsoft a également déclaré pouvoir connecter jusqu'à 6 144 puces Maia 200 pour augmenter encore les performances. L'entreprise a affirmé que cette approche aide à réduire la consommation d'énergie et le coût total de propriété. Microsoft avait précédemment montré que la Maia 100 pouvait exécuter GitHub Copilot en 2023.
Microsoft a déclaré qu'elle déploiera d'abord les puces Maia 200 dans sa région de centre de données du centre des États-Unis. L'entreprise a déclaré que les puces arriveront plus tard dans la région ouest 3 des États-Unis. Des déploiements mondiaux supplémentaires suivront ces déploiements initiaux.
L'article Microsoft dévoile une puce d'IA de deuxième génération pour renforcer les capacités cloud est apparu en premier sur Blockonomi.


