比GPT-3.5 Turbo便宜超60% OpenAI推出小模型卷性價比

7月18日,OpenAI正式推出新一代入門級別人工智能模型“GPT-4o mini”,稱這款新模型是“功能最強、性價比最高的小參數模型”。

從OpenAI官網的介紹來看,GPT-4o mini在文本智能和多模態推理方面的基準性能超越了GPT-3.5 Turbo,在LMSYS(指聊天機器人對戰)排行榜上還超過GPT-4。而價格層面,GPT-4o mini相比GPT-3.5 Turbo便宜了超過60%。

在“大力出奇跡”的Scaling Law(尺度定律)之外,如何做好小模型正在成爲大模型廠家的新考題。

OpenAI入局小模型賽場

OpenAI表示,預計GPT-4o mini將通過大幅降低智能的成本,顯著擴展AI應用的範圍。據官網介紹,GPT-4o mini的優勢在於低成本和低延遲,支持廣泛的任務,例如串聯或並行多個模型調用的應用程序(例如調用多個API);向模型傳遞大量上下文(例如完整代碼庫或對話歷史);或通過快速、實時的文本響應與客戶互動(例如聊天機器人)。

目前,GPT-4o mini在API中支持文本和視覺功能,未來將支持文本、圖像、視頻和音頻的輸入和輸出。該模型具有128K Token的上下文窗口,數據更新至2023年10月。

性能方面,OpenAI稱,GPT-4o mini在涉及文本和視覺的推理任務中優於其他小模型,在MMLU(文本智能和推理基準測試)中得分爲82.0%,相比之下,Gemini Flash爲77.9%,Claude Haiku爲73.8%。

在數學推理和編碼任務方面,GPT-4o mini超過了市場大部分小模型。在MGSM(數學推理評估)中,GPT-4o mini得分爲87.0%,而谷歌發佈的Gemini Flash爲75.5%;在HumanEval(編碼性能評估)中,GPT-4o mini得分爲87.2%,而Gemini Flash爲71.5%。

價格方面,GPT-4o mini每百萬個輸入Token爲15美分(約合人民幣1.09元),每百萬個輸出Token爲60美分(約合人民幣4.36元)。OpenAI表示,這一價格相較GPT-3.5 Turbo便宜超60%。

OpenAI表示,在過去幾年中,人們見證了AI的顯著進步和成本的大幅降低。例如,自2022年推出文本模型Text-Davinci-003以來,GPT-4o mini的每個Token成本已經下降了99%。

按照設想,OpenAI希望未來能夠將一個模型無縫集成到每個應用程序和每個網站中,而GPT-4o mini正在爲開發者更高效和更經濟地構建和擴展強大的AI應用程序鋪平道路。

不過,在小模型賽場中,OpenAI的各家競爭對手已經早早就位。例如谷歌推出的Gemini Flash,Anthropic旗下的Claude Haike等。近日,Mitral AI與英偉達推出的小模型Mistral Nemo上線,聲稱性能趕超Meta推出的Llama-3 8B。

大模型越卷越“小”

這一年來,“降本增效”已經成爲大部分大模型公司的共識。

平安證券研報認爲,OpenAI新模型GPT-4o mini兼具性能與性價比,有望加速大模型應用落地。當前全球範圍內的大模型逐漸呈現由單方面的性能角逐,轉向性能與實用性並重的發展趨勢。大模型能力達到一定水平時必然會走向應用,大模型廠商通過提升其產品性價比,助推下游應用端的推广部署,有望加速大模型產業鏈商業閉環的形成。

一方面,上半年開打的大模型價格戰不斷蔓延,從兩家海外AI巨頭OpenAI和谷歌開始,到國內字節跳動、阿里、百度、智譜AI、科大訊飛等企業,入局者不斷增加。從OpenAI此舉來看,這場價格戰還將持續。

IDC中國研究經理程蔭此前在接受《每日經濟新聞》記者採訪時就談到,從短期的發展來看,大模型能力更新迭代後將會走向趨同,無論是國內還是國外的技術供應商都不能建立起長久的護城河。一些技術供應商選擇直接砍掉大模型成本上的門檻,除了出於促進大模型落地應用,也有增加曝光度,爭搶用戶、防止用戶流失的動因。

另一方面,通過“小模型”,以更低的成本,垂直覆蓋更多的應用場景,以推動端側應用的落地同樣成爲行業趨勢。同時,隨着以蘋果爲代表的各大手機廠商加速發力AI手機,端側大模型正在成爲新的競爭焦點。

專注端側模型的面壁智能CEO李大海此前在接受包括《每日經濟新聞》在內的記者採訪時就談到,相同智能水平的模型,每8個月其參數規模將減少一半,這與摩爾定律具有一定的相似性。在同等性能下,參數規模減小,說明大模型的知識密度在不斷提高。李大海表示,隨着大模型知識密度的提升和端側算力的增強,兩個因素疊加,有信心在2026年年底前研發出達到GPT-4水平的端側模型,當端側模型能夠實現GPT-4水平時,很多端側的產品會更快落地。

李大海認爲,當端側模型可以應用,其成本會更低,且可靠性更高,不需要依賴網絡。例如,在用戶需求交流時,基於端側模型的陪伴機器人能夠迅速作出反應。這種比較優勢使得在適用端側模型的場景中,大家會更傾向於選擇端側解決方案。

今年3月,百度也發佈ERNIESpeed、ERNIE Lite、ERNIE Tiny三個輕量模型。百度集團董事長李彥宏在今年4月的一場公開演講中也談到,MoE、小模型和智能體是值得關注的三個方向。“通過大模型,壓縮蒸餾出來一個基礎模型,然後再用數據去訓練,這比從頭開始訓小模型效果要好很多,比基於開源模型訓出來的模型效果更好、速度更快、成本更低。”李彥宏表示。