NVIDIA ogłasza Vera Rubin POD z 1152 procesorami GPU rozmieszczonymi w 40 stojakach, zapewniającymi 60 eksaflopów i 10-krotnie lepszą wydajność wnioskowania na wat w porównaniu z Blackwell. (ReadNVIDIA ogłasza Vera Rubin POD z 1152 procesorami GPU rozmieszczonymi w 40 stojakach, zapewniającymi 60 eksaflopów i 10-krotnie lepszą wydajność wnioskowania na wat w porównaniu z Blackwell. (Read

NVIDIA prezentuje superkomputer AI Vera Rubin POD z 40 szafami do zadań agentowych

2026/03/17 03:48
4 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

NVIDIA prezentuje superkomputer AI Vera Rubin POD z 40 szafami do obciążeń agentowych

Iris Coleman 16 mar 2026 19:48

NVIDIA ogłasza Vera Rubin POD wyposażony w 1152 GPU w 40 szafach, zapewniający 60 exaflops i 10-krotnie lepszą wydajność wnioskowania na wat niż Blackwell.

NVIDIA prezentuje superkomputer AI Vera Rubin POD z 40 szafami do obciążeń agentowych

NVIDIA właśnie ujawniła specyfikacje swojego najbardziej ambitnego jak dotąd projektu infrastruktury AI. Vera Rubin POD mieści 1152 GPU Rubin w 40 szafach, zapewniając 60 exaflops mocy obliczeniowej i 10 petabajtów na sekundę całkowitej przepustowości skalowania. Jednostki produkcyjne trafią do wysyłki w drugiej połowie 2026 roku.

Liczby są oszałamiające: 1,2 biliarda tranzystorów, prawie 20 000 układów NVIDIA, wszystkie zaprojektowane do działania jako jeden spójny superkomputer. NVIDIA twierdzi, że osiąga 4-krotnie lepszą wydajność treningu i 10-krotnie lepszą wydajność wnioskowania na wat w porównaniu z obecną architekturą Blackwell - przy jednoczesnym obniżeniu kosztów tokenów do jednej dziesiątej obecnych poziomów.

Pięć specjalnie zaprojektowanych systemów szafowych

POD łączy pięć odrębnych systemów w skali szafy, z których każdy jest ukierunkowany na konkretne wąskie gardła w nowoczesnych obciążeniach AI:

Vera Rubin NVL72 służy jako podstawowy silnik obliczeniowy. Każda szafa integruje 72 GPU Rubin i 36 procesorów Vera połączonych przez NVLink 6, który zapewnia przepustowość 3,6 TB/s na GPU - więcej całkowitej przepustowości niż cały globalny internet, według NVIDIA. System jest ukierunkowany na wszystkie cztery prawa skalowania AI: wstępne szkolenie, szkolenie po wstępnym, skalowanie w czasie testu i skalowanie agentowe.

Szafy Groq 3 LPX rozwiązują problem opóźnień. Z 256 jednostkami przetwarzania języka na szafę, wykorzystującymi architekturę wyłącznie SRAM, współpracują one z NVL72, aby zapewnić, według twierdzeń NVIDIA, 35-krotnie więcej tokenów i 10-krotnie większe możliwości przychodów dla modeli z bilionem parametrów w porównaniu z Blackwell.

Szafy Vera CPU zapewniają środowiska piaskownicy do testowania agentów. Pojedyncza szafa obsługuje ponad 22 500 równoczesnych środowisk uczenia przez wzmacnianie - kluczowych dla walidacji wyników agentowych AI przed wdrożeniem.

Szafy BlueField-4 STX wprowadzają to, co NVIDIA nazywa "pamięcią natywną dla AI" poprzez platformę pamięci kontekstu CMX. Przenosząc pamięć podręczną KV do dedykowanej pamięci o wysokiej przepustowości, system twierdzi, że osiąga 5-krotnie wyższą liczbę tokenów na sekundę i 5-krotnie lepszą efektywność energetyczną niż tradycyjne podejścia.

Szafy sieciowe Spectrum-6 SPX łączą wszystko razem za pomocą przełączników 102,4 Tb/s wyposażonych we współpakowaną optykę.

Argument ekonomii tokenów

NVIDIA przedstawia to w kontekście konkretnej rzeczywistości rynkowej: zużycie tokenów przekracza obecnie 10 biliardów rocznie, a przejście z interakcji człowiek-AI do interakcji AI-AI drastycznie przyspieszy ten wzrost. Nowoczesne systemy agentowe generują masowe wolumeny tokenów rozumowania, jednocześnie rozszerzając wymagania pamięci podręcznej KV - dokładnie to wąskie gardło, na które ukierunkowana jest ta architektura.

Testy porównawcze SemiAnalysis InferenceMax od firm trzecich, cytowane przez NVIDIA, pokazują, że obecne systemy Blackwell już zapewniają 50-krotnie lepszą wydajność na wat i 35-krotnie niższy koszt na token w porównaniu z H200. Vera Rubin ma na celu rozszerzyć tę przewagę.

Inżynieria termiczna i energetyczna

Architektura szafy MGX trzeciej generacji wprowadza inteligentne wygładzanie mocy z 6-krotnie większym magazynowaniem energii na poziomie szafy (400 dżuli na GPU) niż poprzednie generacje. Zmniejsza to szczytowe zapotrzebowanie na prąd do 25% i eliminuje potrzebę masywnych pakietów baterii.

Wszystkie szafy działają przy temperaturze wlotu ciepłej wody 45°C, umożliwiając centrom danych w wielu klimatach korzystanie z chłodzenia powietrzem otoczenia. NVIDIA twierdzi, że to uwalnia wystarczająco dużo mocy, aby dodać 10% więcej szaf w tym samym budżecie energetycznym obiektu.

Spojrzenie w przyszłość

Poza początkową konfiguracją POD, NVIDIA zaprezentowała Vera Rubin Ultra NVL576 skalujący się do 576 GPU w ośmiu szafach oraz architekturę następnej generacji Kyber ukierunkowaną na NVL1152 ze 144 GPU na szafę. Plan rozwoju sugeruje, że NVIDIA postrzega wieloszafowe domeny NVLink jako przyszłość infrastruktury AI - nie tylko większe GPU, ale fundamentalnie inne architektury systemowe.

Dla przedsiębiorstw planujących inwestycje w infrastrukturę AI, przekaz jest jasny: ekonomia obliczeń AI przechodzi z optymalizacji na poziomie chipów do optymalizacji na poziomie obiektów. Ci, którzy teraz budują centra danych, stają przed wyborem między systemami obecnej generacji a oczekiwaniem na dostępność Vera Rubin pod koniec 2026 roku.

Źródło obrazu: Shutterstock
  • nvidia
  • infrastruktura ai
  • vera rubin
  • centra danych
  • korporacyjne ai
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.