微軟發表Phi-2小語言模型評測報告 聲稱完勝對手

微軟執行長納德拉在上月Microsoft Ignite活動上,發表Phi-2模型。(網路圖片/微軟官網提供)

微軟(Microsoft)研究部門週二發表小型語言模型(SLM)Phi-2的評測報告,以「小語言模型的驚人力量」爲題,指出Phi-2在各類測試中展現良好理解與聽懂語言的能力,表現勝過是它25倍大的其他對手模型。

微軟在上個月的Microsoft Ignite活動中,首次發表Phi-2模型,執行長納德拉那時特別強調,它以一小部分的訓練資料,就能達最高水準表現。

GPT、或是Google的Gemini等人工智慧(AI)系統,是使用大型語言模型(LLM)。SLM跟他們不同,是以較少的參數、較少的電腦運算來運作。這樣的小型AI模型,雖然不能生成LLM那麼多的人工智慧,對於特定的任務,卻是很有效率。

微軟說:「Phi-2只有27億個參數,在多個總合基準上,表現比70億參數的Mistral和130億參數的Llama-2 都還要好。」Mistral是法國新創AI公司的產品,Llama-2是臉書母公司Meta的模型。微軟也用Phi-2把Google新發表的AI模型Gemini Nano 2比下去,微軟表示,Phi-2雖然小,但表現與Gemini Nano 2相當或更好。

Gemini Nano 2是Google押注多模型LLM,所發表的最新一款可在本地運作的AI系統,預計要取代Google大部分服務中的PaLM-2。

微軟的AI策略不只在開發模型,也爲AI特別設計了Maia、Cobalt晶片,這顯示微軟想要全面整合AI與雲端運算。特製的晶片要將AI任務做最佳發揮,支持微軟調和軟硬體能力的願景,準備與Google的Tensor,以及蘋果的M系列晶片,直接競爭。

Phi-2這類小型語言模型可在本地運作,跑系統所需的設備等級不必太高,甚至有可能在智慧手機就能運行,一旦成真,新的應用就會更廣。