NVIDIA 2025年推Blackwell Ultra、B200A HBM消耗量將再翻倍

以NVIDIA Hopper系列晶片爲例,第一代H100搭載的HBM容量爲80GB,而2024年放量的H200則躍升到144GB。

在AI晶片與單晶片容量的成長加乘之下,對產業整體的HBM的消耗量顯著提升,2024年預估年增率將超過200%,2025年HBM消耗量將再翻倍。

據TrendForce近期調查供應鏈結果,NVIDIA規劃降規版B200A給OEM客戶,將採用4顆HBM3e 12hi,較其他B系列晶片搭載的數量減半。

TrendForce指出,即使B200A的HBM搭載容量較小,不影響整體市場的HBM消耗量,因爲晶片選擇多元化,有助於提高中小客戶的採購意願。

SK hynix、Micron甫於2024年第二季量產HBM3e,隨着NVIDIA H200的出貨,將帶動整體HBM3e市場的消耗比重,預估2024年全年可超過60%。

進入2025年,受到Blackwell平臺全面搭載HBM3e、產品層數增加,以及單晶片HBM容量上升帶動,NVIDIA對HBM3e市場整體的消耗量,將進一步推升至85%以上。

HBM3e 12hi是2024年下半年市場關注的重點。預計於2025年推出的Blackwell Ultra將採用8顆HBM3e 12hi,GB200亦有升級可能,再加上B200A的規劃,因此,預估2025年12hi產品在HBM3e的比重,將提升至40%,且有機會上修。

隨着進入到HBM3e 12hi階段,技術難度也提升,驗證進度顯得更加重要,完成驗證的先後順序可能影響訂單的分配比重。

目前HBM的三大供應商產品皆在驗證中,其中Samsung在驗證進度上領先競爭對手,積極朝提高其市佔率爲目標。

基本上,今年產能大致底定,主要產能仍以HBM3e 8hi爲主,因此,HBM3e 12hi產出增長主要仍貢獻於2025年。