Noile cipuri AI Rubin de la Nvidia sunt aproape gata și vor fi testate în curând de clienți.Noile cipuri AI Rubin de la Nvidia sunt aproape gata și vor fi testate în curând de clienți.

Nvidia avansează în domeniul hardware-ului AI cu noile cipuri Rubin

2026/01/06 08:19
4 min de lectură

Nvidia a făcut un alt pas major în cursa globală către soluții AI de ultimă generație. Compania spune că noile sale chipuri Rubin pentru centre de date sunt aproape gata de lansare mai târziu în acest an, iar clienții vor începe în curând să le testeze. 

Toate cele șase chipuri Rubin s-au întors de la partenerii de producție ai Nvidia, a declarat Nvidia. Aceste chipuri au trecut deja prin mai multe proceduri de testare esențiale și sunt programate să fie utilizate de clienți. Compania remarcă faptul că acest progres timpuriu este important deoarece companiile de AI și centrele de date se întrec pentru a obține hardware mai rapid și mai eficient. 

Directorul executiv al Nvidia, Jensen Huang, a împărtășit actualizarea într-un discurs principal la Consumer Electronics Show (CES) din Las Vegas. CES este unul dintre cele mai mari evenimente tehnologice din lume, la care producătorii dezvăluie noi produse și idei. "Cursa pentru AI este pornită", a spus Huang în mijlocul cursei în rapidă dezvoltare dintre companiile tehnologice pentru a debloca noua generație de AI. 

Comentariile sale indică faptul că Nvidia este foarte sigură că poate rămâne în continuare producătorul numărul unu de acceleratoare AI din lume. Aceste acceleratoare sunt chipuri specializate pe care un centru de date le folosește pentru a antrena și rula modele AI, care alimentează instrumente precum chatbot-uri, sisteme de recunoaștere a imaginilor și roboți avansați.

Chipurile Rubin oferă o creștere majoră a performanței

Rubin este cel mai nou accelerator AI al Nvidia, urmând generația anterioară numită Blackwell. Compania spune că Rubin este de 3,5 ori mai rapid la antrenarea modelelor AI și de cinci ori mai rapid la rularea software-ului AI comparativ cu Blackwell. Antrenarea AI implică învățarea modelelor să învețe din cantități vaste de date, în timp ce rularea AI înseamnă utilizarea acelor modele pentru a efectua sarcini în timp real.

Rubin adaugă o nouă unitate centrală de procesare (CPU) cu 88 de nuclee. Nucleele sunt părțile unui chip care efectuează calcule și procesează date. Cu performanță dublă față de chip-ul pe care îl înlocuiește, acest nou CPU este mai potrivit pentru sarcini AI mai complexe. La conferința GTC de primăvară a Nvidia din California, compania dezvăluie de obicei detalii complete ale produselor. 

De această dată, au fost divulgate mai multe informații decât de obicei. Această mișcare este considerată o modalitate de a menține consumatorii și dezvoltatorii concentrați pe hardware-ul Nvidia pe măsură ce adoptarea AI continuă să crească rapid. Huang însuși a făcut numeroase apariții publice promovând produse AI, parteneriate și investiții. Nvidia nu a fost singurul jucător în centrul atenției la CES. Lisa Su, CEO-ul producătorului rival de chipuri Advanced Micro Devices (AMD), a rezervat de asemenea un discurs principal, evidențiind competiția în creștere pe piața de chipuri.

Nvidia atrage clienți mari pe măsură ce competiția crește

Unii investitori s-au îngrijorat că competiția pentru Nvidia se intensifică. Alte companii tehnologice dezvoltă de asemenea propriile chipuri AI, fiind dificil de spus dacă cheltuielile pentru AI pot ține pasul. 

Nvidia, totuși, a fost optimistă, considerând că piața AI pe termen lung ar putea valora trilioane de dolari, determinată de cererea din industrii precum cloud computing, afaceri și sectoare emergente.

Hardware-ul Rubin va fi utilizat în DGX SuperPod al Nvidia, un supercomputer puternic conceput pentru muncă AI la scară largă. În același timp, clienții vor putea cumpăra chipurile Rubin ca componente individuale, permițându-le să construiască sisteme mai flexibile și modulare.

Performanța sporită este deosebit de critică, având în vedere că sistemele AI continuă să evolueze. AI-ul modern se bazează din ce în ce mai mult pe rețele de modele specializate care nu doar procesează cantități masive de date, ci rezolvă și probleme în mai mulți pași. Astfel de sarcini includ planificare, raționament și luarea deciziilor. 

Nvidia a subliniat de asemenea că sistemele bazate pe Rubin vor fi mai ieftine de operat decât sistemele Blackwell. Deoarece Rubin poate oferi aceleași rezultate cu mai puține componente, centrele de date pot economisi la energie și costuri operaționale. 

Companii majore de cloud computing precum Microsoft, Google Cloud și Amazon Web Services (AWS) sunt așteptate să fie printre primele care vor implementa hardware-ul Rubin în a doua jumătate a anului. Aceste companii reprezintă în prezent cea mai mare parte a cheltuielilor pentru sistemele AI alimentate de Nvidia.

Perfecționează-ți strategia cu mentorat + idei zilnice - acces gratuit timp de 30 de zile la programul nostru de tranzacționare

Oportunitate de piață
Logo null
Pret null (null)
--
----
USD
null (null) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează crypto.news@mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.