Nvidia dokonała kolejnego istotnego posunięcia w globalnym wyścigu o zaawansowane rozwiązania AI. Firma ogłosiła, że jej nowe chipy centrów danych Rubin są niemal gotowe do wprowadzenia na rynek w późniejszej części tego roku, a klienci wkrótce rozpoczną ich testowanie.
Wszystkie sześć chipów Rubin wróciło od partnerów produkcyjnych Nvidia, poinformowała firma. Chipy te przeszły już kilka kluczowych procedur testowych i są zgodne z harmonogramem wykorzystania przez klientów. Firma podkreśla, że ten wczesny postęp jest istotny, ponieważ firmy AI i centra danych rywalizują o szybszy i bardziej wydajny sprzęt.
Prezes Nvidia Jensen Huang podzielił się aktualizacją w przemówieniu głównym na targach Consumer Electronics Show (CES) w Las Vegas. CES to jedno z największych zgromadzeń technologicznych na świecie, podczas którego producenci prezentują nowe produkty i pomysły. "Wyścig o AI trwa" - powiedział Huang w obliczu szybko rozwijającego się wyścigu między firmami technologicznymi o odblokowanie kolejnej generacji AI.
Jego komentarze wskazują, że Nvidia jest bardzo pewna, iż nadal może być światowym numerem jeden wśród producentów akceleratorów AI. Te akceleratory to wyspecjalizowane chipy, których centrum danych używa do trenowania i uruchamiania modeli AI, napędzających narzędzia takie jak chatboty, systemy rozpoznawania obrazów i zaawansowane roboty.
Rubin to najnowszy akcelerator AI firmy Nvidia, następujący po poprzedniej generacji o nazwie Blackwell. Firma twierdzi, że Rubin jest 3,5 razy szybszy w trenowaniu modeli AI i pięć razy szybszy w uruchamianiu oprogramowania AI w porównaniu z Blackwell. Trenowanie AI polega na uczeniu modeli nauki z ogromnych ilości danych, podczas gdy uruchamianie AI oznacza wykorzystanie tych modeli do wykonywania zadań w czasie rzeczywistym.
Rubin dodaje nową jednostkę centralnego przetwarzania (CPU) z 88 rdzeniami. Rdzenie to części chipa, które wykonują obliczenia i przetwarzają dane. Dzięki dwukrotnie większej wydajności w porównaniu z chipem, który zastępuje, ten nowy CPU jest lepiej przystosowany do bardziej złożonych obciążeń AI. Na wiosennej konferencji GTC Nvidia w Kalifornii firma zazwyczaj udostępnia pełne szczegóły produktu.
Tym razem udostępniono więcej informacji niż zwykle. Posunięcie to jest uznawane za sposób na utrzymanie uwagi konsumentów i programistów na sprzęcie Nvidia, podczas gdy adopcja AI nadal szybko rośnie. Sam Huang również wielokrotnie pojawiał się publicznie, promując produkty AI, partnerstwa i inwestycje. Nvidia nie była jedynym graczem w centrum uwagi na CES. Lisa Su, CEO konkurencyjnego producenta chipów Advanced Micro Devices (AMD), również zarezerwowała przemówienie główne, podkreślając rosnącą konkurencję na rynku chipów.
Niektórzy inwestorzy obawiali się, że konkurencja dla Nvidia się nasila. Inne firmy technologiczne również rozwijają własne chipy AI, co utrudnia określenie, czy wydatki na AI mogą nadążyć.
Nvidia jednak pozostaje optymistyczna, wierząc, że długoterminowy rynek AI może być wart biliony dolarów, napędzany popytem z branż takich jak cloud computing, przedsiębiorstwa i rozwijające się sektory.
Sprzęt Rubin będzie wykorzystywany w systemie DGX SuperPod firmy Nvidia, potężnym superkomputerze zaprojektowanym do pracy AI na dużą skalę. Jednocześnie klienci będą mogli kupować chipy Rubin jako pojedyncze komponenty, co pozwoli im budować bardziej elastyczne i modułowe systemy.
Zwiększona wydajność jest szczególnie krytyczna, biorąc pod uwagę, że systemy AI nadal ewoluują. Nowoczesna AI coraz bardziej opiera się na sieciach wyspecjalizowanych modeli, które nie tylko przetwarzają ogromne ilości danych, ale także rozwiązują problemy w wielu krokach. Takie zadania obejmują planowanie, rozumowanie i podejmowanie decyzji.
Nvidia podkreśliła również, że systemy oparte na Rubin będą tańsze w eksploatacji niż systemy Blackwell. Ponieważ Rubin może dostarczać te same rezultaty przy mniejszej liczbie komponentów, centra danych mogą oszczędzać na energii i kosztach operacyjnych.
Oczekuje się, że główne firmy cloud computing, takie jak Microsoft, Google Cloud i Amazon Web Services (AWS), będą jednymi z pierwszych, które wdrożą sprzęt Rubin w drugiej połowie roku. Firmy te obecnie odpowiadają za większość wydatków na systemy AI zasilane przez Nvidia.
Zaostrz swoją strategię dzięki mentorstwu + codziennym pomysłom - 30 dni bezpłatnego dostępu do naszego programu tradingowego



