產業分析-平行運算時代:AI伺服器與GPGPU共榮發展
圖爲輝達(NVIDIA)晶片。圖/pixabay
(更多產業分析請掃QR Code)
伴隨擅長自然語言處理(Natural Language Processing,NLP)的「大型語言模型」(Large Language Model,LLM)與擅長影像處理(Image Processing)的「擴散模型」(Diffusion Model)邁向大規模商業化之際,AI伺服器及其重要運算核心-通用圖形處理器(General-Purpose Computing on Graphics Processing Unit,GPGPU)顯現擅於「平行運算」(Parallel Computing)的價值,成爲人類社會依託技術發展再實現生產力提升的重要引擎。
■GPGPU三大供應商:
輝達、超微、英特爾
以往執行此類平行運算工作負載多加以仰賴中央處理器(CPU)完成,然而伴隨科學運算等領域發展,運算任務越趨複雜,在多重運算任務亟待指令拆分的趨勢下,GPGPU憑藉平行運算突出效能,已迅速彰顯在巨量資料(Big Data)爆炸性成長之際,可協同CPU加速完成AI模型訓練與推論的價值。
因此,輝達(NVIDIA)、超微(AMD)與英特爾(Intel)等三大供應商,無不加速演進GPGPU核心架構設計、硬體配置與封裝技術。此外,平行運算時代三大供應商亦突出「高速互聯技術」(High-Speed Interconnect)相連CPU與GPGPU間、GPGPU與GPGPU間的協同運算加速作用,藉以鞏固供應商自身產品生態系市佔率。
未來在NVIDIA、AMD與Intel伺服器CPU與GPGPU產品線完善下,同一供應商CPU與GPGPU產品共同構成的封閉生態系能驅動的協同運算效能,將是AI模型訓練領域關注所在。
此外,若從AI伺服器供應鏈與生產模式來看,AI伺服器與過去雲端運算伺服器供應鏈生產模式相仿,可大致區分爲短鏈代工模式(ODM Direct)與長鏈代工模式(OEM Mode)。
■短鏈與長鏈代工業摩拳擦掌
短鏈代工模式是以處理器供應商與AI伺服器代工廠(ODMs)等零組件與設備供應商(意即由處理器供應商與雲端服務供應商洽談合作),以及終端使用者(指的是雲端服務供應商)爲供應鏈主要參與者,由ODMs出貨予終端使用者,終端設備平均售價較長鏈代工模式爲低廉。
反觀長鏈代工模式,相較短鏈代工模式,則同樣由處理器供應商提供AI伺服器處理器(也就是處理器供應商與ODMs洽談合作),首先由AI伺服器品牌廠(OEMs)完成AI伺服器軟硬體架構設計,再委由ODMs執行組裝和製造環節,再由OEMs出貨予終端使用者(包括雲端服務供應商、金融機構與政府單位等)。
以供應鏈來看,基於AI伺服器客製化程度較雲端伺服器爲高的特性,工業富聯、英業達、神達電腦、緯創資通、緯穎科技與廣達電腦等臺灣伺服器代工廠(ODMs)再度發揮客製化核心能力,扮演AI伺服器供應鏈關鍵角色;而Dell、技嘉、HPE、聯想與Supermicro等伺服器品牌廠(OEMs)亦寄望以AI伺服器解決方案,作爲後疫情時代全球伺服器市場再成長的重要動能。