11月13日,英偉達(dá)正式宣布,在目前最強AI(人工智能)芯片H100的基礎(chǔ)上進行一次大升級,發(fā)布新一代H200芯片。H200擁有141GB的內(nèi)存、4.8TB/秒的帶寬,并將與H100相互兼容,在推理速度上幾乎達(dá)到了H100的兩倍。H200預(yù)計將于明年二季度開始交付,英偉達(dá)尚未公布其價格。
H200引人矚目的地方在于,它是首款搭載HBM3E的GPU,這種速度更快、容量更大的存儲器將加速生成式人工智能(generative AI)和大型語言模型(LLM),同時提升科學(xué)運算的高效能運算工作負(fù)載。
相較于A100,H200的存儲器速度達(dá)每秒4.8 TB,存儲容量幾乎翻倍,帶寬增加了2.4倍。
NVIDIA宣布,全球服務(wù)器制造商和云端服務(wù)供應(yīng)商將在2024年第2季開始出貨搭載H200的系統(tǒng)。
H200將提供包含四路和八路配置的HGX H200服務(wù)器主機板,與HGX 100系統(tǒng)兼容。此外,H200還可與NVIDIA GH200 Grace Hopper超級芯片搭配使用,該芯片于2023年8月推出,采用HBM3E。
HGX H200采用NVIDIA NVLink和NVSwitch高速互連技術(shù),可為各種應(yīng)用工作負(fù)載提供高效能,包括對超過1750億個參數(shù)的最大模型進行大型語言模型訓(xùn)練和推斷。
英偉達(dá)還透露,下一代Blackwell B100 GPU也將在2024年推出,性能已經(jīng)“望不到頭”。
本文鏈接:http://m.www897cc.com/showinfo-27-25944-0.htmlNVIDIA推出HGX H200,效能大幅提升
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com