觀點/GPU加速 並非人工智慧技術發展唯一解決方案

在當前的人工智慧運算與訓練模式中,透過GPU進行加速似乎已經成爲常態,甚至有不少看法認爲藉由CPU處理人工智慧運算或訓練已經不合乎效益,但由電氣電子工程師學會發行雜誌《IEEE Spectrum》在去年發表文章卻指出,CPU在特定情況反而會比GPU更適合用於人工智慧執行、訓練。

《IEEE Spectrum》去年6月報導文章引述人工智慧模型開源共享託管平臺Hugging Face推廣長Julien Simon經驗,藉由32核心設計的Intel Xeon處理器處理Intel提出大型自然語言模型Q8-Chat,即可呈現宛如OpenAI的ChatGPT運作體驗。

以Julien Simon的看法指出,GPU雖然是當前市場用於加速人工智慧運算及訓練的主流選擇,但顯然並非是絕對。同時,Julien Simon更指出若開發者願意做好功課,並且善用合適工具,實際能透過CPU完成更多人工智慧推論相關工作。

多數人在市場趨勢衝擊印象中,普遍認爲CPU缺乏平行處理能力,因此不適合用於深度學習等訓練使用,認爲結合GPU進行平行運算加速纔是人工智慧技術發展唯一作法。

但實際上從多數運算執行結果回傳數值爲零的情況來看,可以凸顯許多人工智慧模型更重要的是如何做到更正確計算,而非單純以大量運算次數定義人工智慧執行效率。換句話說,實際上如何着手從軟體端、模型設計進行最佳化,並且搭配合適硬體,纔是讓人工智慧執行效率提升作法。

如同Intel提出Q8-Chat大型自然語言模型執行效率情況,在代號「Sapphire Rapids」的Xeon處理器執行表現,相較代號「Ice Lake」的Xeon處理器執行表現約提升5倍以上,而在相同處理器、搭配軟體最佳化的執行效率表現更有40%幅度提升,顯示人工智慧執行效率更重要的是軟硬體整合,而非單純仰賴硬體效能加速。

實際上,目前的人工智慧運算模式相當多元,透過GPU加速確實不是唯一正解。包含Intel、Qualcomm、AMD在內業者均提出結合CPU、GPU,以及NPU (或XPU、IPU等)運算元件進行協同運算加速設計,藉此提升人工智慧執行運算效率。

目前確實許多人工智慧運算均仰賴GPU加速,但也讓GPU運算元件價格因此水漲船高,甚至可能有市場壟斷情形,這樣的情況確實會對整體人工智慧發展市場不利。從廣面來看,人工智慧運算應該還是要維持其多元性,即便在整體運算架構上也應該對應更具彈性佈署應用型態。

即便積極強調GPU是推動人工智慧技術發展核心的NVIDIA,其實也還是強調CPU的重要性,甚至更進一步着重佈局軟體應用發展,原因就在於CPU仍扮演其重要性角色,同時有不少運算依然仰賴CPU,甚至藉由CPU運算實現成本效益,GPU確實有其運算加速優勢,但本身也還是有高功率運作問題必須作改善,因此主要還是端看人工智慧實際佈署應用需求,並且依照實際情況彈性調整軟硬體整合型態纔是最佳作法。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》