“我們相信未來需要一個AI和高性能計算平臺的統(tǒng)一平臺。”Nvidia加速計算部產(chǎn)品營銷經(jīng)理Paresh Kharya在周二的新聞發(fā)布會上表示。
黃仁勛在GTC Taiwan 2018大會上宣布推出HGX-2云服務器平臺
Moor Insights&Strategy的高級分析師Karl Freund也告訴SiliconANGLE,“我認為人工智能將使HPC發(fā)生革命性變化 ,很多超級計算中心都很有可能部署HGX-2,因為它可以為HPC和AI增加強大的計算能力。”
更具體地說,這種新的架構(gòu)可以實現(xiàn)包括科學計算和模擬在內(nèi)的應用,如天氣預報,以及AI模型(如深度學習神經(jīng)網(wǎng)絡)的訓練和運行,用于諸如圖像和語音識別以及自動駕駛汽車的導航。 Kharya說:“這些模型正在以前所未有的速度更新,有時甚至每小時更新一次。”
NvidiaHGX-2云服務器平臺
HGX架構(gòu)由Nvidia的GPU提供動力,該架構(gòu)的第一個版本HGX-1于一年前宣布。該架構(gòu)為微軟的 Project Olympus,F(xiàn)acebook的 Big Basin系統(tǒng)和Nvidia自己的 DGX-1 AI超級計算機以及服務中使用的數(shù)據(jù)中心設(shè)計,如亞馬遜AWS。
本質(zhì)上,HGX-2由Nvidia的16個高端V100 GPU組成,運用了Nvidia NVSwitch互聯(lián)結(jié)構(gòu),16個GPU完全連接,作為一個整體來使用。速度可達2 PFLOPS。
另據(jù)了解,HGX-2作為云服務器平臺,具備多精度計算能力,支持面向科學計算和模擬的高精度FP64和FP32計算,也支持AI訓練和推理所用的FP16和INT8精度。HGX-2執(zhí)行AI訓練的速度,在ResNet-50基準上達到了每秒15500張圖片,相當于300臺只裝了CPU的服務器。
“基本上,開發(fā)者現(xiàn)在可以將HGX看作有16個GPU計算資源非常強大的池子。”Freund解釋說。對于想要生產(chǎn)HPC和AI通用的最先進系統(tǒng)的廠商來說,HGX-2是一個組件。
Nvidia今天也表示,最近宣布的DGX-2 AI超級計算機是第一個使用HGX-2的系統(tǒng),它將在第三季度銷售,售價399,000美元,黃仁勛在會議主旨演講的直播中開玩笑說,“買得越多,省得越多”,盡管他似乎也是這樣認為的。
Nvidia已經(jīng)推出的服務器將CPU與GPU混合在一起,用于人工智能訓練、推理或模型運行以及超級計算的優(yōu)化配置。Kharya試圖將HGX架構(gòu)定位為類似于英特爾和微軟開發(fā)的ATX個人電腦主板配置標準,這導致許多公司制造的兼容系統(tǒng)組件爆炸式增長。
在周二宣布計劃建造HGX-2系統(tǒng)的公司中,包括服務器制造商聯(lián)想、廣達云(QCT),超微電腦和緯穎(Wiwynn)將在今年晚些時候推出HGX-2系統(tǒng)。另外,黃仁勛表示NVIDIA 正式啟動全球頂尖 ODM 伙伴合作計劃鴻海精密,英業(yè)達,廣達電腦和緯創(chuàng)這些全球設(shè)計生產(chǎn)大廠都將成為合作伙伴,加速因應 AI 云端運算的各種需求。