比人腦快20000%,內置1152顆7nm芯片,全球最大神經擬態系統誕生|鈦媒體AGI

Hala Point系統集羣(圖片來源:英特爾)

人工智能(AI)領域迎來重大事件。

北京時間4月18日凌晨,美國芯片巨頭英特爾(Intel)宣佈,其打造出全球最大的神經擬態系統——Hala Point,旨在支持未來類腦 AI 研究,以及解決 AI 目前在效率和可持續性等方面的挑戰。

Hala Point內置1152個、基於Intel 4(7nm)製程的英特爾Loihi 2處理器,支持多達11.5億個神經元和1280億個突觸,每秒可處理超過380萬億個8位突觸和超過 240 萬億個神經元操作,相關係統最初部署在美國桑迪亞國家實驗室。應用於仿生尖峰神經網絡模型時,在運行神經元數量較低的情況下,Hala Point速度可比人腦快200倍(20000%)。

英特爾研究院神經擬態計算實驗室總監Mike Davies表示:“目前,AI模型的算力成本正在以不可持續的速度上升。行業需要能夠規模化的全新計算方法。爲此,英特爾開發了Hala Point,將高效率的深度學習和新穎的類腦持續學習、優化能力結合起來。我們希望使用Hala Point的研究能夠在大規模AI技術的效率和適應性上取得突破。”

事實上,所謂神經擬態芯片,是一種模擬生物神經元的芯片。

與普通芯片不同的是,神經擬態芯片的計算任務是由許多小單元進行的,單元之間通過類似生物神經的尖峰信號相互通信,並通過尖峰調整其行爲。

早在2018年,基於英特爾研究院的先進技術研究,英特爾推出了首款神經擬態芯片Loihi,採用14nm製程,可應用於機器嗅覺等場景。

2021年,Loihi系列全面升級,英特爾發佈了第二代神經擬態芯片Loihi 2,採用英特爾第一個EUV工藝節點Intel 4,芯片等效於4nm,實際爲7nm工藝。

Loihi 2共有128個神經擬態核心,這128個內核每一個都有192KB的靈活內存,每個神經元可以根據模型分配多達4096個狀態,而之前的限制只有24個。

與普通的CPU和GPU不同,神經擬態沒有外部內存。每個神經元都有一小部分內存供其專用。主要作用是分配給不同神經元輸入的權重、最近活動的緩存以及峰值發送到的所有其他神經元的列表。Loihi 2可以根據用途選擇各種不同連接選項,這一點上有些類似於FPGA。

英特爾強調,在執行AI推理負載和處理優化問題時,Loihi 2神經擬態芯片系統的速度比常規CPU和GPU架構快50倍,同時能耗降低100倍。

除了硬件產品外,英特爾還發布了用於Loihi芯片的軟件,一個名爲Lava的新開發框架。該框架以及相關庫都用Python編寫,並在GitHub上開源,開發人員無需訪問硬件即可爲Loihi開發程序。

如今,英特爾已經將Loihi 2芯片用於機械臂、神經擬態皮膚、機器嗅覺等場景。英特爾表示,Loihi 2應用了衆多類腦計算原理,如異步(asynchronous)、基於事件的脈衝神經網絡(SNNs)、存算一體,以及不斷變化的稀疏連接,以實現能效比和性能的數量級提升。神經元之間能夠直接通信,而非通過內存通信,因此能降低整體功耗。

英特爾Hala Point神經擬態系統研究團隊

而在新一輪 AI 技術引領下,4月17日,英特爾將這個神經擬態芯片進行“暴力組裝”,構建了全球最大的神經擬態系統Hala Point 。

具體來說,Hala Point系統由封裝在一個六機架的數據中心機箱中的1152個Loihi 2處理器(採用Intel 4製程節點)組成,大小相當於一個微波爐。該系統支持分佈在 140544 個神經形態處理內核上的多達 11.5 億個神經元和 1280 億個突觸,最大功耗僅爲 2600 瓦。Hala Point還包括 2300 多個嵌入式 x86 處理器,用於輔助計算。

Hala Point 將處理、內存和通信通道集成在大規模並行結構中,提供總共 16 PB/s 的內存帶寬、3.5 PB/s 的內核間通信帶寬和 5 TB/s 的帶寬(TB/s)的芯片間通信帶寬。該系統每秒可以處理超過 380 萬億個 8 位突觸和超過 240 萬億個神經元操作。

在用於仿生脈衝神經網絡模型時,Hala Point能夠以比人腦快20倍的實時速度運行其全部11.5億個神經元,在運行神經元數量較低的情況下,速度可比人腦快200倍。雖然Hala Point並非用於神經科學建模,但其神經元容量大致相當於貓頭鷹的大腦或捲尾猴的大腦皮層。

早期研究結果表明,通過利用稀疏性高達10比1的稀疏連接(sparse connectivity)和事件驅動的活動,Hala Point運行深度神經網絡的能效比高達15 TOPS/W,同時無需對輸入數據進行批處理。批處理是一種常用於GPU的優化方法,會大幅增加實時數據(如來自攝像頭的視頻)處理的延遲。儘管仍處於研究階段,但未來的神經擬態大語言模型將不再需要定期在不斷增長的數據集上再訓練,從而節約數千兆瓦時的能源。

英特爾表示,Hala Point在其前身Pohoiki Springs的基礎上實現了大幅提升,基於神經擬態計算技術提升了主流、常規深度學習模型的性能和效率,尤其是那些用於處理視頻、語音和無線通信等實時工作負載的模型。其架構經過改進,神經元容量提高了10倍以上,性能提高了12倍。

目前,Hala Point是一個旨在改進未來商用系統的研究原型。英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新數據中持續學習的能力,從而有望在AI廣泛部署的過程中,大幅降低訓練能耗,提高可持續性。

英特爾透露,接下來,Hala Point系統將向桑迪亞國家實驗室交付,從而標誌着英特爾共享的大型神經擬態研究系統的首次部署,進一步推動神經擬態計算應用和類腦 AI 研究等。如今,英特爾神經擬態研究社區(INRC)成員總數已超過200個。

不過,英特爾這套神經擬態技術在深度學習領域仍面臨一定的質疑。

Meta首席科學家、圖靈獎得主Yann LeCun曾在2019年的一次會議上駁斥了神經擬態計算方法。他認爲,神經形態方法沒有取得實際成果,像ResNet等深神經網絡已經在計算機視覺上取得了巨大的成功。

不過,IBM於2014年推出了TrueNorth芯片,儘管其運行頻率只有幾kHz,但它所模擬大腦尖峰神經網絡所需的計算資源,只傳統處理器0.0001%。Mike Davies曾表示,Loihi在某些特定工作負載上,可以比傳統處理器效率高出2000倍。

新的 AI 時代已經到來,Hala Point或將成爲未來英特爾打開AGI時代的重要一把“鑰匙”。

(本文首發於鈦媒體App,作者|林志佳,編輯|胡潤峰)