Microsoft представила новый чип искусственного интеллекта под названием Maia 200, предназначенный для рабочих нагрузок облачных вычислений. Чип появился спустя два года после того, как Microsoft представила свой первый ИИ-чип Maia 100, который так и не стал широко доступен для облачных клиентов. Компания заявила, что Maia 200 охватит больше клиентов и обеспечит более широкую доступность в будущем.
Microsoft объявила, что Maia 200 может служить альтернативой процессорам от Nvidia, Amazon Trainium и Google TPU. Скотт Гатри, исполнительный вице-президент Microsoft по облачным технологиям и ИИ, заявил, что Maia 200 обеспечит «более широкую доступность для клиентов в будущем». Microsoft заявила, что Maia 200 представляет собой самую эффективную систему вывода, развернутую на сегодняшний день.
Разработчики, ученые и лаборатории ИИ могут подать заявку на предварительную версию комплекта разработки программного обеспечения Maia 200. Предварительная версия предлагает ранний доступ к инструментам для создания и оптимизации рабочих нагрузок ИИ на новом чипе. Microsoft заявила, что предварительная версия расширит экспериментирование с открытыми моделями ИИ и корпоративными сценариями использования.
Microsoft заявила, что ее команда суперинтеллекта под руководством Мустафы Сулеймана будет использовать Maia 200 для внутренних и клиентских рабочих нагрузок. Компания также подтвердила, что Microsoft 365 Copilot и Microsoft Foundry будут работать на новом чипе. Эти сервисы включают дополнения к программному обеспечению для повышения производительности и платформы для создания на основе крупных моделей ИИ.
Облачные провайдеры сталкиваются с растущим спросом со стороны разработчиков моделей ИИ, таких как Anthropic и OpenAI, заявила Microsoft. Операторы дата-центров стремятся к более высокой вычислительной мощности при управлении ограничениями по энергии и затратам. В этой конкурентной среде компании стремятся сбалансировать производительность с операционными расходами и потреблением энергии.
Microsoft заявила, что чипы Maia 200 используют 3-нанометровый процесс Taiwan Semiconductor Manufacturing Co. Компания заявила, что размещает четыре чипа Maia 200 внутри каждого сервера, объединенных для увеличения пропускной способности. Microsoft пояснила, что конструкция использует кабели Ethernet, а не стандарт InfiniBand, используемый в установках Nvidia.
Компания заявила, что Maia 200 обеспечивает на 30 процентов более высокую производительность при эквивалентных ценовых точках по сравнению с альтернативами. Microsoft заявила, что каждый Maia 200 включает больше высокоскоростной памяти, чем AWS Trainium или TPU седьмого поколения Google. Эта архитектурная конструкция направлена на поддержку крупномасштабных рабочих нагрузок вывода моделей.
Microsoft также заявила, что может связать до 6 144 чипов Maia 200 для дальнейшего масштабирования производительности. Компания утверждает, что этот подход помогает снизить потребление энергии и общую стоимость владения. Microsoft ранее показала, что Maia 100 может запускать GitHub Copilot в 2023 году.
Microsoft заявила, что сначала развернет чипы Maia 200 в своем регионе дата-центра в центральной части США. Компания сообщила, что чипы позже появятся в регионе U.S. West 3. За этими первоначальными развертываниями последуют дополнительные глобальные развертывания.
Статья Microsoft представляет чип ИИ второго поколения для укрепления облачных возможностей впервые появилась на Blockonomi.


