快科技9月10日消息,除了宣布專門用于大規(guī)模上下文處理的Rubin CPX,NVIDIA還同時披露了新一代AI服務器,規(guī)模和性能實現(xiàn)了大幅度的躍升。
“Vera Rubin NVL144”定位于AI訓練與推理用途的旗艦產(chǎn)品,應該每個機架配備36顆Vera CPU、144顆Rubin GPU,同時搭配1.4PB/s超高帶寬的HBM4(容量沒說),以及多達75TB存儲。
算力性能在NVFP4數(shù)據(jù)精度下可高達3.5 EFlops,也就是每秒350億億次,對比GB300 NVL72提升3.3倍!

“Vera Rubin NVL144 CPX”又加入了72顆Rubin CPX,組成了單個機架144顆GPU、36顆CPU的龐大規(guī)模。
同時,它還有1.7PB/s帶寬的HBM4內(nèi)存、100TB高速存儲,以及Quantum-X800 InfiniBand或者Spectrum-X以太網(wǎng),搭配ConnectX-9 NIC網(wǎng)卡。
整機算力在NVFP4下達到了驚人的8 EFlops,即每秒800億億次,對比GB300 NVL72提升了7.5倍。

如果有需要,可以將兩臺服務器組合在一起,配置和算力直接翻倍。
NVIDIA號稱,有了這樣的AI服務器,每投入1億美元,就可以換來50億美元的收獲。

NVIDIA新公布的路線圖顯示,Rubin GPU和相關系統(tǒng)將在2026年底開始登場,2027年推出升級版Rubin Ultra,2028年則是全新的再下一代Feyman GPU,繼續(xù)搭配Vera CPU。

本文鏈接:http://m.www897cc.com/showinfo-24-181481-0.htmlNVIDIA宣布下代AI服務器:288顆GPU+36顆CPU 800億億次每秒
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com