Microsoft wprowadził nowy chip sztucznej inteligencji o nazwie Maia 200, który jest przeznaczony do obciążeń w chmurze obliczeniowej. Chip pojawia się dwa lata po tym, jak Microsoft ujawnił swój pierwszy chip AI, Maia 100, który nigdy nie stał się szeroko dostępny dla klientów chmury. Firma stwierdziła, że Maia 200 dotrze do większej liczby klientów i zapewni szerszą dostępność w przyszłości.
Microsoft ogłosił, że Maia 200 może służyć jako alternatywa dla procesorów Nvidia, Amazon Trainium i Google TPU. Scott Guthrie, wiceprezes wykonawczy Microsoft ds. chmury i AI, powiedział, że Maia 200 zapewnia „szerszą dostępność dla klientów w przyszłości". Microsoft stwierdził, że Maia 200 stanowi najbardziej wydajny system inferencji wdrożony do tej pory.
Deweloperzy, akademicy i laboratoria AI mogą ubiegać się o podgląd zestawu narzędzi programistycznych Maia 200. Podgląd oferuje wczesny dostęp do narzędzi do budowania i optymalizacji obciążeń AI na nowym chipie. Microsoft powiedział, że podgląd poszerzy eksperymentowanie z modelami AI o otwartym kodzie źródłowym i przypadkami użycia w przedsiębiorstwach.
Microsoft powiedział, że jego zespół superinteligencji, kierowany przez Mustafę Suleymana, będzie używał Maia 200 do wewnętrznych obciążeń i obciążeń klientów. Firma potwierdziła również, że Microsoft 365 Copilot i Microsoft Foundry będą działać na nowym chipie. Te usługi obejmują dodatki do oprogramowania produktywności i frameworki do budowania na bazie dużych modeli AI.
Dostawcy chmury stają w obliczu rosnącego zapotrzebowania ze strony deweloperów modeli AI, takich jak Anthropic i OpenAI, powiedział Microsoft. Operatorzy centrów danych poszukują wyższej mocy obliczeniowej, jednocześnie zarządzając ograniczeniami energetycznymi i kosztowymi. W tym konkurencyjnym środowisku firmy starają się zrównoważyć wydajność z wydatkami operacyjnymi i zużyciem energii.
Microsoft powiedział, że chipy Maia 200 wykorzystują proces 3-nanometrowy Taiwan Semiconductor Manufacturing Co. Firma stwierdziła, że umieszcza cztery chipy Maia 200 w każdym serwerze, połączone dla zwiększonej przepustowości. Microsoft wyjaśnił, że projekt wykorzystuje kable Ethernet zamiast standardu InfiniBand widocznego w instalacjach Nvidia.
Firma stwierdziła, że Maia 200 zapewnia o 30 procent wyższą wydajność przy równoważnych punktach cenowych w porównaniu z alternatywami. Microsoft powiedział, że każdy Maia 200 zawiera więcej pamięci o wysokiej przepustowości niż AWS Trainium lub TPU siódmej generacji Google. Ten projekt architektoniczny ma na celu wspieranie obciążeń inferencji modeli na dużą skalę.
Microsoft powiedział również, że może połączyć do 6 144 chipów Maia 200, aby jeszcze bardziej skalować wydajność. Firma twierdziła, że to podejście pomaga zmniejszyć zużycie energii i całkowity koszt posiadania. Microsoft wcześniej pokazał, że Maia 100 może uruchomić GitHub Copilot w 2023 roku.
Microsoft powiedział, że najpierw wdroży chipy Maia 200 w regionie centrum danych U.S. Central. Firma stwierdziła, że chipy później pojawią się w regionie U.S. West 3. Dodatkowe wdrożenia globalne będą następować po tych początkowych wprowadzeniach.
Post Microsoft ujawnia chip AI drugiej generacji, aby wzmocnić możliwości chmury pojawił się najpierw na Blockonomi.


