مایکروسافت یک تراشه هوش مصنوعی جدید به نام Maia 200 را معرفی کرده است که بارهای کاری رایانش ابری را هدف قرار میدهد. این تراشه دو سال پس از اینکه مایکروسافت اولین تراشه هوش مصنوعی خود، Maia 100 را معرفی کرد که هرگز به طور گسترده برای مشتریان ابری در دسترس نبود، عرضه شده است. شرکت گفت Maia 200 به مشتریان بیشتری دسترسی خواهد داشت و در آینده در دسترس بودن گستردهتری ارائه خواهد کرد.
مایکروسافت اعلام کرد که Maia 200 میتواند به عنوان جایگزینی برای پردازندههای Nvidia، Trainium آمازون و TPUهای گوگل عمل کند. Scott Guthrie، معاون اجرایی مایکروسافت برای ابر و هوش مصنوعی، گفت Maia 200 "در دسترس بودن گستردهتر مشتریان را در آینده" به همراه میآورد. مایکروسافت گفت Maia 200 کارآمدترین سیستم استنتاج است که تاکنون مستقر شده است.
توسعهدهندگان، دانشگاهیان و آزمایشگاههای هوش مصنوعی میتوانند برای پیشنمایش کیت توسعه نرمافزار Maia 200 درخواست دهند. پیشنمایش دسترسی زودهنگام به ابزارها برای ساخت و بهینهسازی بارهای کاری هوش مصنوعی روی تراشه جدید را ارائه میدهد. مایکروسافت گفت پیشنمایش آزمایش را در سراسر مدلهای هوش مصنوعی متن باز و موارد استفاده سازمانی گسترش خواهد داد.
مایکروسافت گفت تیم ابرهوش خود، به رهبری Mustafa Suleyman، از Maia 200 برای بارهای کاری داخلی و مشتری استفاده خواهد کرد. شرکت همچنین تأیید کرد که Microsoft 365 Copilot و Microsoft Foundry روی تراشه جدید اجرا خواهند شد. این خدمات شامل افزونههای نرمافزار بهرهوری و چارچوبهایی برای ساخت بر روی مدلهای بزرگ هوش مصنوعی است.
مایکروسافت گفت ارائهدهندگان ابری با تقاضای رو به رشد از سوی توسعهدهندگان مدل هوش مصنوعی مانند Anthropic و OpenAI روبرو هستند. اپراتورهای مرکز داده به دنبال قدرت محاسباتی بالاتر هستند در حالی که محدودیتهای انرژی و هزینه را مدیریت میکنند. در این محیط رقابتی، شرکتها هدفشان تعادل بین عملکرد در برابر هزینههای عملیاتی و مصرف انرژی است.
مایکروسافت گفت تراشههای Maia 200 از فرآیند 3 نانومتری شرکت تایوان سمی کانداکتور منوفکچرینگ استفاده میکنند. شرکت گفت چهار تراشه Maia 200 را در داخل هر سرور قرار میدهد که برای افزایش توان عملیاتی به هم متصل شدهاند. مایکروسافت توضیح داد که این طراحی از کابلهای اترنت به جای استاندارد InfiniBand که در نصبهای Nvidia دیده میشود، استفاده میکند.
شرکت اعلام کرد که Maia 200 عملکرد 30 درصد بالاتری در نقاط قیمتی معادل در مقایسه با جایگزینها ارائه میدهد. مایکروسافت گفت هر Maia 200 حافظه پهنای باند بالاتری نسبت به Trainium AWS یا TPUهای نسل هفتم گوگل دارد. این طراحی معماری هدفش پشتیبانی از بارهای کاری استنتاج مدل در مقیاس بزرگ است.
مایکروسافت همچنین گفت میتواند تا 6,144 تراشه Maia 200 را برای مقیاسبندی بیشتر عملکرد به هم متصل کند. شرکت ادعا کرد که این رویکرد به کاهش مصرف انرژی و هزینه کل مالکیت کمک میکند. مایکروسافت قبلاً نشان داده بود که Maia 100 میتواند GitHub Copilot را در سال 2023 اجرا کند.
مایکروسافت گفت ابتدا تراشههای Maia 200 را در منطقه مرکز داده مرکزی ایالات متحده مستقر خواهد کرد. شرکت گفت تراشهها بعداً به منطقه غرب 3 ایالات متحده خواهند رسید. استقرارهای جهانی اضافی پس از این راهاندازیهای اولیه دنبال خواهند شد.
پست Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilities اولین بار در Blockonomi منتشر شد.


