Qualcomm pozyskał znaczącego klienta hiperskalowego dla niestandardowego krzemu do centrów danych, co stanowi najbardziej agresywne wejście firmy w infrastrukturę serwerową od czasu całkowitego porzucenia tego rynku w 2018 roku.
Wysyłka nowych niestandardowych układów ma rozpocząć się w grudniu 2026 roku.
Od giganta mobilnego do konkurenta w centrach danych
Qualcomm wprowadził swoje procesory serwerowe Centriq w 2017 roku, pozycjonując układy oparte na ARM jako energooszczędną alternatywę dla dominacji Intela. Do 2018 roku całe przedsięwzięcie zostało zamknięte.
Gra na inferencję AI
Zamiast próbować bezpośrednio konkurować z procesorami GPU do trenowania NVIDIA, Qualcomm celuje w konkretny segment stosu obliczeniowego AI: inferencję.
Firma opracowuje niestandardowe akceleratory AI oparte na układach ASIC, zaprojektowane do obsługi obciążeń inferencyjnych przy niższym zużyciu energii niż alternatywy oparte na GPU.
Qualcomm zasygnalizował ten strategiczny kierunek w sierpniu 2025 roku, a podpisanie umowy z nienazwanym dostawcą hiperskalowym potwierdza, że oferta trafia do co najmniej jednego dużego klienta.
Zatłoczone i skomplikowane pole konkurencji
NVIDIA pozostaje niekwestionowanym liderem, a jej architektura GPU służy jako domyślna platforma zarówno do trenowania, jak i inferencji. AMD zyskało pozycję dzięki akceleratorom serii MI. Intel nadal promuje swoje akceleratory Gaudi.
Amazon zbudował własne układy Trainium i Inferentia dla AWS. Google ma swoje TPU. Microsoft rozwija własne akceleratory Maia.
Raporty wskazują również, że Qualcomm bada możliwości wdrożenia sprzętu do inferencji AI w nowych regionach geograficznych, szczególnie w Ameryce Łacińskiej.
Harmonogram wysyłki w grudniu 2026 roku oznacza, że firma musi skutecznie realizować rozwój niestandardowego krzemu. Jeden klient hiperskalowy to dowód słuszności koncepcji, a nie biznes. Qualcomm będzie musiał wykazać, że jego architektura inferencji może przyciągnąć wielu dużych nabywców, aby uzasadnić inwestycję w R&D.
Source: https://cryptobriefing.com/qualcomm-data-center-customer-ai-inference/








