AI PC噱頭破碎,什麼纔是真·AI PC?
距離AI PC推出的概念炒作已經一年有餘了,但似乎“雷聲大,雨點小”。市場和消費者似乎也並不買賬。AI PC真的“AI”嗎?什麼纔是真·AI PC?看看真正的AI大廠給的答案吧。
AI PC概念的興起
AI PC是Artificial Intelligence Personal Computer的簡稱,最早由英特爾於2023年9月提出,短短時間內獲得業內廣泛青睞,儘管發展時間不長,但業內普遍認爲,AI PC將會是PC行業的轉折點。而Canalys 對 AI PC 的定義爲配備專用 AI 芯片組或模塊(如 NPU)的臺式機和筆記本電腦,用於處理 AI 工作負載。
2024年被業界公認爲AI PC應用的元年,各大企業紛紛推出了自己的AI電腦。
3月初,蘋果發佈AI PC MacBook Air。3月18日,榮耀發佈公司首款AI PC MagicBook Pro 16,緊接着,AMD董事會主席及CEO蘇姿豐宣佈AMD銳龍8040系列AI PC處理器已經實現出貨。3月22日,微軟宣佈推出Surface AI PC。4月11日,華爲發佈新款MateBook X Pro筆記本電腦,首次應用華爲盤古大模型。
某種程度上來說,強綁定AI概念的PC業確實有了起色。2024年第四季度,AI PC出貨量達到1540萬臺,佔季度PC總出貨量的23%。2024年全年,AI PC佔PC總出貨量的17%。其中,蘋果以54%的市場份額領跑,聯想和惠普各佔12%。受Windows 10服務停止帶來的換機潮,AI PC的市場滲透率將在2025年繼續提升。但這其中究竟有多少AI含量?
AI PC:雷聲大雨點小
2024年2月23日,聯想CEO楊元慶在最新財報發佈後表示,預計2024年全球PC出貨量將同比增長約5%。儘管面臨一些挑戰,但他堅信人工智能將是推動聯想業務增長和重塑的關鍵因素。
然而,楊元慶也指出,目前AI PC市場還處於初級階段,儘管“雷聲大”,但實際銷售量和用戶接受度還相對較低。他認爲,這主要是由於技術成熟度、用戶教育以及市場接受度等方面的原因。
對於已經發布的 AI PC 產品,不少人並不認可,核心在於這些 AI PC 中“AI”與“PC”(硬件)基本是分離的。以目前 PC 上最大的 AI 用例——微軟 Copilot 來說,在英特爾與微軟對AI PC的聯合定義中,強調必須配備混合架構芯片、Copilot 及其對應的物理按鍵。但事實是,所有升級到最新 Windows 11 版本的 PC 都能使用 Copilot,因爲 Copilot 只依賴於微軟 Azure 雲端算力,與 PC 硬件本身無關。
而作爲掌握核心科技的AI芯片老大,英偉達根本就不理微軟的定義,試問又有誰能比英偉達更有AI 的話語權?而英偉達很早就開始佈局 AI 領域的生態,自1993年成立以來,一直是加速計算領域的先驅,擁有最廣泛 CUDA 生態應用的 AI 生產力,帶有 N 卡獨顯的高性能PC,不那麼依賴於 OEM 的適配,不但可以運行輕量極的 AI 工具,比如本地的大語言模型,簡單的 Stable Diffusion繪圖,甚至可以玩中等規模的 AI 模型,實際使用的生成速度,也比普通核顯玩AI快得多。
之所以現在AI PC受到市場冷遇,主要有以下幾點原因:
1、現階段AI PC搭載的NPU算力不足
Intel NPU的AI性能最高爲48TOPS,Intel Xe 核顯大約28TOPS。搭載核顯的 AI PC 算力目前在 10 - 45 TOPS 這個量級,而搭載 GeForce RTX 40 系列 GPU 的設備,涵蓋了筆記本電腦和臺式主機,能提供 200 - 1400 TOPS 不同級別的產品方案選擇。
而今年發佈的RTX 5090顯卡採用了NVIDIA的Blackwell架構,這使得它在性能上有了質的飛躍。據NVIDIA官方介紹,RTX 5090的AI算力達到了4000 TOPS,是上一代Ada Lovelace架構的三倍。
NPU的AI算力與GPU相比可謂是弟中弟。
事實上主流的那些常見AI應用方面,本地上哪怕單塊RTX 4080、4090也不見得多充沛,可想而知NPU這點算力也確實沒有太多作用。
2、NPU不帶DRAM,無法單獨支撐大模型運行
目前的AI大模型從硬件需求來說都是“DRAM 的大模型”。NPU天生不帶DRAM,依賴系統RAM。也就是運行大模型必須另配64G以上的DRAM以配合NPU——都加碼到這份上了,這爲啥不直接用APU/GPU跑呢,都要加錢了,讓誰跑不是跑?
而且APU和GPU跑AI大模型是開源適配好的,可謂是開箱即用。
3、NPU適配應用少,應用範圍窄
理論上,現在NPU上已經能跑LLM大語言模型、stable diffusion圖片生成、常見CV神經網絡的推理(包括Resnet、yolo)、whisper語音轉文字。基本上所有的AI推理負載,本質上就是矩陣運算,都能夠通過NPU來實現低功耗運行。
但實際上現在用戶買到的Windows筆記本電腦,能夠調用NPU的應用場景是Windows Studio Effect裡面的背景虛化、剪映摳圖。應用範圍實在是太窄了。NPU支持的本地程序截止目前非常少。
總體來說,目前NPU實際能用的功能都是一些花拳繡腿。這一輪AI真正火起來,還是因爲大家看到ChatGPT這樣的聊天機器人能夠解決很多問題。所以如果真的要讓NPU發揮作用,還是需要能運行LLM大語言模型,而顯然當前AI PC上的NPU無法滿足需求。
NPU還是GPU不重要,但本地化的AI很需要。而目前來看,是不是AI PC並不重要,有沒有搭載NVIDIA GPU比較重要。
三大廠的“真·AI PC”
此前雖然一些廠商宣傳推出了AI PC產品。但實際上卻至少噱頭居多,只是搭載了NPU芯片,而沒有真正的本地大模型運行。既不能訓練、也不能推理。
AI PC 的概念被廣泛宣傳在筆記本電腦上。然而,現在沒有任何一臺輕薄本,稱得上是高算力的 AI 專用計算設備PC,反倒是傳統的高性能遊戲本,搭載強大 GPU 顯卡的臺式機,可以真的去提供真正的 AI生產力。
真·AI PC還是得看能開發高性能GPU的廠商,比如英偉達和AMD。
而就在今年年初CES上,AMD發佈了AI Max 300Strix Halo。黃仁勳也發佈了Project DIGITS。再加上此前蘋果公司的Mac Pro。這三個是本地部署大模型的利器。堪稱“桌面AI超級電腦”。
AMD發佈的Strix Halo有兩種:消費級的Strix Halo---主要用於消費性能筆電(遊戲本)和商用級的Strix Halo Pro---主要用於移動工作站。曝光的3DMark測試數據顯示,其旗艦型號Ryzen AI MAX+ 395有16個基於Zen 5架構的CPU核心,32線程;40個基於RDNA 3.5架構的GPU核心,即Radeon 8060S核顯;最高120W,是標準移動APU的3倍;支持四通道LPDDR5X內存,提供高達256 GB/s的帶寬。值得注意的是,集成的Radeon 8060S核顯性能竟達到前代Radeon 890M的三倍以上,甚至逼近RTX 4060獨顯水平。
英偉達將其發佈的Project DIGITS稱之爲“目前體積最小的AI超算”。Project DIGITS使用了一顆定製的“GB10”超級芯片,它在一個核心裡融合了基於Blackwell架構的GPU,以及NVIDIA與聯發科、ARM三方合作研發的Grace CPU。資料顯示,其中的Blackwell GPU能夠提供1PFLOPS的FP4算力,同時Grace CPU則包含了10個Cortex-X925核心和10個Cortex-A725核心。在GPU和CPU之間,則是通過大型超算同款的NVLINK-C2C芯片到芯片互聯總線連接。
Project DIGITS還配備了一顆獨立的NVIDIA ConnectX互聯芯片,它可以讓“GB10”超級芯片內部的GPU兼容多種不同的互聯技術標準,其中包括NCCL、RDMA、GPUDirect等,從而使得這顆“大核顯”可以被各種開發軟件和AI應用直接訪問。
而蘋果則在2023年發佈了M3系列芯片並配備了下一代 GPU,代表了蘋果芯片圖形架構史上最大的飛躍。不僅速度更快、能效更高,並且還引入了稱之爲“動態緩存”的新技術,同時首次爲 Mac 帶來了硬件加速光線追蹤和網格着色等新渲染功能。渲染速度現在比 M1 系列芯片快 2.5 倍。值得注意的是,全新的M3 系列芯片帶來最高128GB的統一的內存架構。蘋果稱,對高達 128GB 內存的支持解鎖了以前在筆記本電腦上無法實現的工作流程,例如人工智能開發人員使用具有數十億參數的更大的Transformer模型。去年蘋果有發佈了M4 Pro芯片,性能號稱超越AI PC芯片。
而這三者都採用了一種叫做統一內存架構的技術。統一架構的好處,就是把以前內存和顯存(顯卡的內存)做了統一,這樣就減少了CPU和GPU通信時候,在內存和顯存之間數據通信時候的拷貝。此外,這一技術也能使電腦顯存更大,從而可以打破消費級顯卡在運行大模型時候顯存不足的困境。值得注意的是,統一內存設計不是英偉達首創,蘋果M1纔是第一例。
Deepseek開啓桌面 AI 超級電腦之戰
近一段時間以來,DeepSeek線上算力的嚴重不足,帶火了大模型本地部署需求,三大廠的“真·AI PC”也都開始廠商部署DeepSeek。
而DeepSeek作爲一款MoE模型對顯存要求高,對算力/內存帶寬要求相對低。這也給了這些通過統一內存技術而擁有大顯存的桌面AI超級電腦可乘之機。
之前有國外大佬用8臺M4 Pro Mac mini跑DeepSeek V3。同樣的,預計可以利用四臺Project DIGITS來部署DeepSeek V3,而且生成速度應該也會快很多。根據AMD自己的公佈,strix halo架構APU可以部署70B的模型,比4090快2.2倍,功耗低87%。
有網友表示,“打算等halo筆記本上市之後把現在的筆記本換掉的,本地部署大模型確實有意思,再過幾年也許就可以本地部署671B的INT8或者FP8大模型了。除了大模型,RAM和CPU配置提高了,做其它事情也快。”
AI賽道,或許是國產廠商切入PC芯片領域的契機。當前許多廠商開始營銷各類AI一體機產品。相信如果國產廠商能推出更大統一內存,比如256G版本的國產“Project DIGITS”,也許會更受歡迎。
AI PC 的概念,是任人打扮的小姑娘。故事,其實各家有各家的講法。OEM 各大廠百花齊放,砸錢砸工程師做本地化AI應用,軟件有些能本地也能雲,雲服務可以接入國產模型做商業,可能是一快很好的蛋糕。
低延遲+隱私保護,或許是拉動類似GPT一類大語言模型,SD繪圖,聲音克隆,AI補幀,摳圖,重繪等本地化AI應用的一個點。
AI PC 的足夠強的邊緣算力 + 大內存(顯存)+優化到足夠高效的軟件,結合起來纔能有望解決行業痛點,大批量落地 AI 終端。所以說,AI PC 其實也不完全是噱頭炒作,不管是更普惠的AI,更高能效的AI,還是更強大算力的AI,還是基於雲和網絡更簡單好用的AI,都是有在進一步發展技術,摸索市場。