在當(dāng)?shù)貢r間11月13日,英偉達(dá)(NVIDIA)宣布推出NVIDIA HGX? H200,這款新產(chǎn)品旨在為全球領(lǐng)先的AI計算平臺提供更強大的動力,計劃從2024年第二季度開始在全球系統(tǒng)制造商和云服務(wù)提供商處提供。
H200采用了基于NVIDIA Hopper?架構(gòu)的設(shè)計,搭載了NVIDIA H200 Tensor Core GPU,具備高級內(nèi)存,可處理大規(guī)模數(shù)據(jù),特別適用于生成式AI和高性能計算工作負(fù)載。與H100相比,據(jù)介紹,NVIDIA H200在推理Llama2模型時的速度幾乎提升了兩倍。測試結(jié)果顯示,基于Meta的Llama 2大模型的輸出速度大約是H100的兩倍。
盡管英偉達(dá)目前尚未透露H200的具體價格,但根據(jù)《CNBC》報道,上一代H100的價格估計在每個2.5萬美元至4萬美元之間。英偉達(dá)發(fā)言人Kristin Uchiyama透露,最終的定價將由NVIDIA的制造伙伴決定。
在這次發(fā)布的H200中,首次采用了HBM3e存儲器規(guī)格,這使得GPU的存儲器帶寬從H100的每秒3.35TB提高到4.8TB,提升了1.4倍,存儲器總?cè)萘恳矎腍100的80GB提高到141GB,容量提升了1.8倍。
此外,據(jù)業(yè)內(nèi)人士透露,三星電子計劃從明年1月開始向英偉達(dá)供應(yīng)高帶寬內(nèi)存HBM3,這將被應(yīng)用在英偉達(dá)的圖形處理單元(GPU)上。英偉達(dá)高性能運算產(chǎn)品副總裁Ian Buck表示,整合更快、更廣泛的HBM存儲器有助于提升對運算要求較高的任務(wù)的性能,包括生成式AI模型和高性能運算應(yīng)用程式,同時優(yōu)化GPU的使用率和效率。
本文鏈接:http://m.www897cc.com/showinfo-27-26491-0.html英偉達(dá):H200輸出速度約H100的兩倍
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com