千呼萬喚!輝達殺手級AI晶片亮相 Blackwell GPU頂規曝光

各界關注的輝達(NVIDIA)年度盛會「GTC 2024」於18至21日在美國矽谷舉行,執行長黃仁勳在19日凌晨4點發表主題演講。(圖/美聯)

各界關注的輝達(NVIDIA)年度盛會「GTC 2024」18至21日在美國矽谷舉行,執行長黃仁勳臺灣時間19日凌晨4點發表主題演講,過去他的談話內容都被分析師視爲未來1年的趨勢。黃仁勳在大會上宣佈,推出最新殺手級AI晶片Blackwell GPU,預計將於今年稍後發貨。

Blackwell視爲繼H100後AI市場的最大武器,Blackwell晶片由2080億個電晶體組成,是該公司先前晶片800億個電晶體的兩倍以上,所有這些電晶體幾乎可以同時存取晶片上的記憶體,從而提高了生產效率。黃仁勳表示,「我們需要更大的GPU」。

Blackwell爲B100、B200和GB200加速器提供動力,具有一對標線有限的運算晶片,它們透過 10TB/s NVLink-HBI互連通訊。

黃仁勳在加州舉行的公司開發者大會上還宣佈推出名爲NIM的軟體,將使人工智慧的部署變得更加容易,爲客戶提供另一個堅持使用Nvidia晶片的理由。輝達表示,公司不再只是一個晶片供應商,更像是一個平臺供應商,就像微軟或蘋果一樣,其他公司可以在平臺上建立軟體。輝達還透露,臺積電和新思科技將採用輝達運算微影技術,兩家公司整合了 Culitho W 軟體系統。

●認識Blackwell

輝達每兩年更新一次GPU架構,大幅提升效能。去年發佈的許多人工智慧模型都是在Hopper架構上進行訓練的,該架構使用H100等晶片,於2022年發佈。各國公司和軟體制造商仍在爭先恐後地購買當前世代的H100和類似晶片。輝達在AI晶片市場佔據主導地位,去年拿下約八成的全球市佔率。

輝達表示,基於Blackwell的處理器(例如GB200)爲AI公司提供了巨大的性能升級,其AI性能爲20 petaflops,H100爲 4 petaflops,額外的處理能力將使人工智慧公司能夠訓練更大、更復雜的模型。Blackwell GPU很大,將兩個單獨製造的晶片組合成一顆由臺積電製造的晶片。它還將作爲一個名爲GB200 NVLink 2的完整伺服器提供,結合了72個Blackwell GPU和其他旨在訓練AI模型的輝達元件。

亞馬遜、谷歌、微軟和甲骨文將透過雲端服務出售GB200的存取權限。GB200 將兩個B200 Blackwell GPU與一個基於Arm的Grace CPU配對。輝達表示,亞馬遜網路服務將建構一個包含20,000個GB200晶片的伺服器叢集。

輝達表示,該系統可以部署27兆參數的模型。這甚至比最大的模型(例如 GPT-4)還要大得多,據報導GPT-4有1.7兆個參數。許多人工智慧研究人員認爲,具有更多參數和數據的更大模型可以釋放新功能。

輝達沒有提供新GB200或它所使用的系統的成本。根據分析師估計,輝達Hopper的H100晶片成本在25,000美元到40,000美元之間,整個系統的成本高達200,000美元。

●輝達也宣佈將在企業軟體訂閱中新增名爲NIM的新產品。

NIM讓使用舊版輝達GPU進行推理或運行人工智慧軟體的過程變得更加容易,並將允許公司繼續使用他們已經擁有的數億個輝達GPU。輝達將與微軟或 Hugging Face等人工智慧公司合作,確保他們的人工智慧模式能夠在所有輝達晶片上相容運作。輝達表示,該軟體將幫助人工智慧在配備GPU的筆記型電腦上運行,而不是在雲端伺服器上運行。

今年是輝達暌違5年迴歸實體展,參展臺廠包括廣達、和碩、英業達、華碩、微星,國際大廠則有OpenAI、Microsoft、Amazon、Alphabet、Meta、甲骨文、美光科技、美超微、DELL和英特爾。臺灣供應鏈相關概念股昨日受此推升表現紅通通。