《產業》高階AI伺服器需求暴增 今年出貨估逾17萬臺

生成式AI與大型語言模型(LLM)相關需求爆發,吸引大型雲端業者、主要伺服器品牌商皆加入AI伺服器軍備競賽,並將採購重點集中於採用高頻寬記憶體(HBM)爲主的高階AI伺服器。

DIGITIMES研究中心預期,2023年全球主要雲端業者與品牌高階AI伺服器出貨量,將有8成以上集中於前五大業者。其中,注資OpenAI ChatGPT、並大量投入生成式AI雲服務的微軟(Microsoft),直接透過代工廠生產的高階AI伺服器出貨將稱冠。

長期投入生成式AI、也掌握關鍵技術的谷歌(Google),以投入自家研發的張量處理器(TPU)做爲主攻的高階AI伺服器機種,透過代工廠產量將排名第二。最積極部署開源LLM模型的Meta出貨將居第三。

亞馬遜(Amazon)雖然投入腳步較慢,但也積極與第三方業者合作,預期透過代工廠出貨排名第四。美超微(Supermicro)、戴爾(Dell)、輝達(NVIDIA)及慧與(HPE)等品牌業者出貨則緊追在大型業者後。

至於高階AI伺服器採用的加速器種類,DIGITIMES 研究中心分析師蕭聖倫預期,今年NVIDIA HGX GPU系列將佔近8成,其中H100 HGX出貨略多於A100 HGX。TPU因Google積極採用佔比將逾1成,其他主要爲PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200與AMD、英特爾(Intel)等業者的高階GPU。

高階AI伺服器代工廠出貨方面,蕭聖倫預期英業達(2356)與美商ZT Systems,將分別爲L6與L10~L12製造的最大贏家。前者因掌握多個大型雲端業者及品牌商訂單,今年佔L6比重將近6成。

而ZT Systems則因早期即與大型雲端業者及相關技術提供者合作,具備大型GPU叢集系統整合技術優勢,蕭聖倫預期其L10~L12佔比將近5成。至於臺廠中,則以廣達(2382)在L10~L12佈局最積極。