NVIDIA推出結合「Grace」CPU與「Blackwell」GPU運算叢集 強化雲端AI應用佈署

▲結合單一「Grace」CPU與兩組「Blackwell」GPU的GB200 Superchip

除了公佈「Blackwell」顯示架構,NVIDIA也同步宣佈結合單一「Grace」CPU與兩組「Blackwell」GPU的GB200 Superchip,並且以此建構的運算叢集設備GB200 NVL72,其中整合36組「Grace」CPU及72組「Blackwell」GPU,彼此則以NVLink連接形成運算叢集。

效能方面,GB200 NVL72可在訓練對應720 PFLOPS算力表現,推論算力則可達1440 PFLOPS,同時可對應27兆組參數規模,多節點傳輸頻寬可達每秒130TB,最高可對應每秒260TB傳輸量。

▲整合36組「Grace」CPU及72組「Blackwell」GPU,彼此則以NVLink連接形成運算叢集GB200 NVL72

此外,NVIDIA也強調結合「Grace」CPU與「Blackwell」GPU的GB200 Superchip的佈署應用彈性,例如以單一Superchip,或是以整合兩組Superchip形式的機架形式運算,甚至可以透過NVLink串連多組機架,藉此讓算力能以倍數堆疊。

不過,顯然受限於Arm運算子系統對應資料傳輸頻寬,加上若以人工智慧推論運算效能最大化爲目的,在GB200 Superchip的組合主要以單一「Grace」CPU與兩組「Blackwell」GPU爲設計,藉此讓算力發揮最大化,並且以此組合進行倍數形式堆疊算力。

▲以人工智慧推論運算效能最大化爲目的,在GB200 Superchip的組合主要以單一「Grace」CPU與兩組「Blackwell」GPU爲設計,藉此讓算力發揮最大化

▲GB200 Superchip能以倍數堆疊形式增加GB200 NVL72運算叢集算力

若以H100 GPU算力爲基礎,GB200 Superchip的算力爲6倍,約可處理GPT-3 1750億組參數量,而對應處理多模特定領域算力表現則可達30倍,可處理多達1.8兆參數規模。

▲GB200 Superchip能以倍數堆疊形式增加GB200 NVL72運算叢集算力

▲同樣以90天完成訓練GPT-MoE-1.8T人工智慧模型情況,透過GB200 NVL72僅需花費「Hopper」顯示架構運算叢集的四分之一能耗

目前GB200 NVL72將由AWS、Google Cloud、微軟Azure與甲骨文OCI (Oracle Cloud Infrastructure)在內公有云服務採用,並且能借由BlueField-3 SuperNIC、Spectrum-X800,或是ConnectX-8 SuperNIC、Quantum-X800的網路傳輸介面組合連接,預計會在今年內加速更多自動生成式人工智慧運算平臺與雲端加速運算髮展。

▲藉由BlueField-3 SuperNIC、Spectrum-X800,或是ConnectX-8 SuperNIC、Quantum-X800的網路傳輸介面組合連接

而NVIDIA也將推出採用GB200 Superchip設計的DGX GB200超級電腦,以及以8組DGX GB200超級電腦構成的DGX SuperPOD運算叢集,其中整合288組「Grace」CPU與576組「Blackwell」GPU構成,並且包含240TB高速記憶體容量,在FP4運算模式可對應11.5 ExaFLOPS算力表現,並且發揮30倍推論效率、4倍訓練效率,同時提升25倍能源使用效率。

▲採用GB200 Superchip設計的DGX超級電腦,以及以8組DGX超級電腦構成的DGX SuperPOD運算叢集

▲同樣透過運算叢集堆疊方式提升DGX SuperPOD算力表現

除了宣佈以水冷系統維持運作的DGX超級電腦,NVIDIA也同步推出僅以空冷系統形式運作的HGX B200,其中移除「Grace」CPU設計,全數以「Blackwell」GPU運作,分別對應15倍推論效率、3倍訓練效率,能源使用效率則可提升12倍,同時也能減少水冷系統佔據空間,能以更大彈性佈署使用。

▲同步推出僅以空冷系統形式運作的HGX B200

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》