Meta Grand Teton系統將NVIDIA Hopper架構導入資料中心

Meta基礎設施硬體部門副總裁Alexis Bjorlin在2022年的Open Compute Project(OCP,開放運算計劃)全球大會上表示,與Meta前一代ZionEX平臺相比,Grand Teton系統搭載了更多記憶體、更高的網路頻寬及更強大的運算能力。

Facebook將AI模型廣泛用於其動態消息、內容推薦與辨識仇恨言論等多項服務及其他許多應用。

Bjorlin在本屆大會致詞時表示,我們很高興在今年的大會中向各位介紹這個產品系列的最新成員。她也感謝NVIDIA鼎力協助設計Grand Teton系統,以及一直以來對OCP大會的支持。

Meta以座落於懷俄明州(Wyoming)國家公園內高達4,199公尺的大提頓峰爲自家最新的AI平臺命名。Grand Teton使用NVIDIA H100 Tensor核心GPU來訓練和運行AI模型,這些模型的規模與能力迅速增長,需要更龐大的運算能力來因應。

以NVIDIA Hopper架構爲基礎的H100搭載了一個Transformer引擎,用於加快處理神經網路的工作,因這些神經網路可以因應自然語言處理、醫療照護、機器人等衆多持續擴大的應用領域,通常被稱爲基礎模型。

NVIDIA H100具有絕佳的效能及能源使用效率。使用NVIDIA網路技術將H100加速的伺服器和超大規模資料中心數千臺伺服器連接時,其能源使用效率比僅使用CPU的伺服器高出300倍。

NVIDIA超大規模與高效能運算部門副總裁IanBuck表示,NVIDIA爲了解決世界上嚴峻的挑戰而設計出NVIDIA Hopper GPU,實現能源使用效率及效能都更優化的加速運算,同時擴大規模並降低成本。Meta今日推出搭載H100的Grand Teton平臺,全球各地的系統建置商很快將獲得用於超大規模資料中心運算基礎設施的開放式設計,爲各產業的AI挹注更強大的助力。

Meta表示,Grand Teton平臺與之前的Zion系統相比,可提供兩倍的網路頻寬、主機處理器與GPU加速器之間的頻寬爲四倍。

Bjorlin表示,加大的網路頻寬讓Meta能夠建立更龐大的系統叢集來訓練AI模型。Grand Teton平臺還擁有比Zion系統更多的記憶體,可以儲存和運行更大規模的AI模型。

Bjorlin表示,將這些功能納入一個整合式伺服器將大幅簡化系統部署作業,讓我們能更迅速地安裝和配置機隊,並提高系統可靠性。