Meta 推最新語言模型 Meta Llama 3 擁有更精準推理能力

Meta公司。路透通訊社

雲端服務業者、大型平臺競爭大語言模型(LLM)地位,Meta宣佈推出新一代先進開源大型語言模型Meta Llama 3,預計將可於AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM 和 Snowflake 等平臺上使用,由AMD、AWS、Dell、Intel、NVIDIA 和 Qualcomm 等硬體平臺支援運作

Meta表示,致力以負責任的原則開發 Llama 3,也將提供多種資源來協助大家以負責任的方式使用,包括導入 Llama Guard 2、Code Shield 和 CyberSec Eval 2 等新的信任和安全工具

Meta新一代 Llama 3 初始的兩個模型已可廣泛使用。此版本包含預訓練和指令微調的語言模型,其中的 8B (80 億) 和 70B (700 億) 參數,可支援更多元的使用情境。新的功能包括更精準的推理能力,是目前同業中最佳的開源模型,Llama 3也將釋出供社羣運用。

Meta 希望透過建立與目前專有模型並駕齊驅的最佳開放模型 Llama 3 ,迴應開發人員的回饋,並提高 Llama 3 的整體實用性,同時持續領導負責任地使用並部署大型語言模型。Meta秉持及早釋出與頻繁更新的開源精神,讓社羣搶先試驗這些仍在開發階段的模型。今日所推出的以文字爲基礎的模型爲 Llama 3系列的第一波模型。Meta 期待讓 Llama 3 在近日具備多語言和多模態、有更長的上下文語境,並繼續提升推理和編寫程式碼等核心大型語言模型能力的整體表現。

Llama 3 卓越的效能

Llama 3 中全新 8B 和 70B 參數的模型,相較於 Llama 2 有大幅的進步,併爲此規模的大型語言模型立下新標準。得益於預訓練與後訓練技術的進展,Meta 的預訓練和指令微調模型是目前 8B 及 70B 參數規模的最佳模型。Meta 在後訓練程序流程的改進大幅降低錯誤拒絕率(False Rejection Rate, FRR),改善一致性,並提升模型反應的多樣性。同時,在推理、程式碼生成和指令遵循等功能亦有顯著提升,讓 Llama 3 更易於操控。