NVIDIA เปิดตัว Vera Rubin POD ซูเปอร์คอมพิวเตอร์ AI 40 แร็คสำหรับงาน Agentic
Iris Coleman 16 มี.ค. 2026 19:48
NVIDIA ประกาศ Vera Rubin POD ที่มี GPU 1,152 ตัวใน 40 แร็ค ให้กำลังการประมวลผล 60 exaflops และประสิทธิภาพการอนุมานที่ดีกว่า 10 เท่าต่อวัตต์เมื่อเทียบกับ Blackwell
NVIDIA เพิ่งเปิดเผยข้อมูลจำเพาะของโครงสร้างพื้นฐาน AI ที่ทะเยอทะยานที่สุด Vera Rubin POD บรรจุ Rubin GPU 1,152 ตัวใน 40 แร็ค ให้กำลังการประมวลผล 60 exaflops และแบนด์วิดท์ขยายขนาดรวม 10 petabytes ต่อวินาที หน่วยการผลิตจะจัดส่งในช่วงครึ่งหลังของปี 2026
ตัวเลขที่นี่น่าทึ่งมาก: ทรานซิสเตอร์ 1.2 ควอดริลเลียนตัว, ไดของ NVIDIA เกือบ 20,000 ตัว, ทั้งหมดออกแบบมาให้ทำงานเป็นซูเปอร์คอมพิวเตอร์เดียวที่สอดคล้องกัน NVIDIA อ้างว่าประสิทธิภาพการฝึกดีกว่า 4 เท่าและประสิทธิภาพการอนุมานดีกว่า 10 เท่าต่อวัตต์เมื่อเทียบกับสถาปัตยกรรม Blackwell ปัจจุบัน—โดยต้นทุนโทเค็นลดลงเหลือหนึ่งในสิบของระดับปัจจุบัน
ระบบแร็คที่สร้างขึ้นเฉพาะทางห้าระบบ
POD รวมระบบขนาดแร็คที่แตกต่างกันห้าระบบ แต่ละระบบกำหนดเป้าหมายคอขวดเฉพาะในภาระงาน AI สมัยใหม่:
Vera Rubin NVL72 ทำหน้าที่เป็นเครื่องมือประมวลผลหลัก แต่ละแร็ครวม Rubin GPU 72 ตัวและ Vera CPU 36 ตัวที่เชื่อมต่อผ่าน NVLink 6 ซึ่งผลักดันแบนด์วิดท์ 3.6 TB/s ต่อ GPU—แบนด์วิดท์รวมมากกว่าอินเทอร์เน็ตทั่วโลกทั้งหมด ตามที่ NVIDIA กล่าว ระบบกำหนดเป้าหมายกฎการปรับขนาด AI ทั้งสี่ประการ: การฝึกล่วงหน้า, การฝึกภายหลัง, การปรับขนาดเวลาทดสอบ, และการปรับขนาดแบบ agentic
แร็ค Groq 3 LPX จัดการกับปัญหาเวลาแฝง ด้วยหน่วยประมวลผลภาษา 256 หน่วยต่อแร็คโดยใช้สถาปัตยกรรม SRAM เท่านั้น สิ่งเหล่านี้จับคู่กับ NVL72 เพื่อส่งมอบสิ่งที่ NVIDIA อ้างว่าเป็นโทเค็นมากกว่า 35 เท่าและโอกาสรายได้มากกว่า 10 เท่าสำหรับโมเดลพารามิเตอร์ล้านล้านเมื่อเทียบกับ Blackwell
แร็ค Vera CPU ให้สภาพแวดล้อม sandbox สำหรับการทดสอบตัวแทน แร็คเดียวรองรับสภาพแวดล้อมการเรียนรู้เสริมแรงพร้อมกันมากกว่า 22,500 รายการ—มีความสำคัญต่อการตรวจสอบผลลัพธ์ AI แบบ agentic ก่อนการปรับใช้
แร็ค BlueField-4 STX แนะนำสิ่งที่ NVIDIA เรียกว่า "พื้นที่จัดเก็บข้อมูลดั้งเดิม AI" ผ่านแพลตฟอร์มหน่วยความจำบริบท CMX โดยการถ่ายโอน KV cache ไปยังพื้นที่จัดเก็บแบนด์วิดท์สูงเฉพาะ ระบบอ้างว่าโทเค็นต่อวินาทีสูงกว่า 5 เท่าและประสิทธิภาพพลังงานดีกว่า 5 เท่าเมื่อเทียบกับวิธีการแบบดั้งเดิม
แร็คเครือข่าย Spectrum-6 SPX เชื่อมโยงทุกอย่างเข้าด้วยกันด้วยสวิตช์ 102.4 Tb/s ที่มีออปติกแพ็คเกจร่วม
ข้อโต้แย้งเศรษฐศาสตร์โทเค็น
NVIDIA กำหนดกรอบนี้รอบความเป็นจริงของตลาดที่เฉพาะเจาะจง: การใช้โทเค็นขณะนี้เกิน 10 ควอดริลเลียนต่อปี และการเปลี่ยนจากการโต้ตอบระหว่างมนุษย์กับ AI ไปสู่ AI กับ AI จะเร่งการเติบโตนั้นอย่างมาก ระบบ agentic สมัยใหม่สร้างปริมาณโทเค็นเหตุผลจำนวนมหาศาลในขณะที่ขยายความต้องการ KV cache—คอขวดที่สถาปัตยกรรมนี้กำหนดเป้าหมายอย่างแน่นอน
เกณฑ์มาตรฐาน SemiAnalysis InferenceMax ของบุคคลที่สามที่ NVIDIA อ้างถึงแสดงให้เห็นว่าระบบ Blackwell ปัจจุบันให้ประสิทธิภาพต่อวัตต์ที่ดีกว่า 50 เท่าและต้นทุนต่อโทเค็นต่ำกว่า 35 เท่าเมื่อเทียบกับ H200 Vera Rubin มุ่งหวังที่จะขยายความนำนั้น
วิศวกรรมความร้อนและพลังงาน
สถาปัตยกรรมแร็ค MGX รุ่นที่สามแนะนำการปรับให้เรียบพลังงานอัจฉริยะด้วยการจัดเก็บพลังงานระดับแร็คมากกว่า 6 เท่า (400 จูลต่อ GPU) เมื่อเทียบกับรุ่นก่อนหน้า สิ่งนี้ลดความต้องการกระแสสูงสุดได้ถึง 25% และขจัดความจำเป็นในการใช้แบตเตอรี่แพ็คขนาดใหญ่
แร็คทั้งหมดทำงานที่อุณหภูมิน้ำอุ่นขาเข้า 45°C ช่วยให้ศูนย์ข้อมูลในหลายภูมิอากาศใช้การระบายความร้อนด้วยอากาศโดยรอบได้ NVIDIA อ้างว่าสิ่งนี้ปลดปล่อยพลังงานเพียงพอที่จะเพิ่มแร็คอีก 10% ในงบประมาณพลังงานสิ่งอำนวยความสะดวกเดียวกัน
มองไปข้างหน้า
นอกเหนือจากการกำหนดค่า POD เริ่มต้น NVIDIA แสดงตัวอย่าง Vera Rubin Ultra NVL576 ที่ปรับขนาดเป็น GPU 576 ตัวใน 8 แร็ค และสถาปัตยกรรม Kyber รุ่นถัดไปที่กำหนดเป้าหมาย NVL1152 ด้วย GPU 144 ตัวต่อแร็ค แผนงานแสดงให้เห็นว่า NVIDIA มองเห็นโดเมน NVLink หลายแร็คเป็นอนาคตของโครงสร้างพื้นฐาน AI—ไม่ใช่แค่ GPU ที่ใหญ่ขึ้น แต่สถาปัตยกรรมระบบที่แตกต่างกันโดยพื้นฐาน
สำหรับองค์กรที่วางแผนการลงทุนโครงสร้างพื้นฐาน AI ข้อความชัดเจน: เศรษฐศาสตร์ของการประมวลผล AI กำลังเปลี่ยนจากการเพิ่มประสิทธิภาพระดับชิปไปสู่ระดับสิ่งอำนวยความสะดวก ผู้ที่กำลังสร้างศูนย์ข้อมูลตอนนี้เผชิญกับทางเลือกระหว่างระบบรุ่นปัจจุบันและการรอความพร้อมใช้งาน Vera Rubin ในปลายปี 2026
แหล่งที่มาของภาพ: Shutterstock- nvidia
- โครงสร้างพื้นฐาน ai
- vera rubin
- ศูนย์ข้อมูล
- ai องค์กร



