稀宇科技推出萬億MoE模型abab 6.5
4月17日,稀宇科技MiniMax正式推出abab 6.5系列模型。abab 6.5系列包含兩個模型:abab 6.5和abab 6.5s。據介紹,abab 6.5包含萬億參數,支持200k tokens的上下文長度;abab 6.5s跟abab 6.5使用了同樣的訓練技術和數據,但是更高效,支持200k tokens的上下文長度,可以1秒內處理近3萬字的文本。在各類核心能力測試中,abab 6.5開始接近GPT-4、Claude-3、Gemini-1.5等大語言模型。
相關資訊
- ▣ MiniMax發佈萬億MoE模型abab 6.5
- ▣ 將多模態大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
- ▣ 新視角設計下一代時序基礎模型,Salesforce推出Moirai-MoE
- ▣ 北京深度求索公司推出首個國產開源MoE大模型
- ▣ 階躍星辰發佈Step-2萬億參數MoE語言大模型預覽版
- ▣ MiniMax發佈abab大模型:6.51秒內可處理近3萬字文本
- ▣ 通用大模型創業硬核選手亮相 階躍星辰發佈萬億參數MoE大模型預覽版
- ▣ 蘋果推出開放語言模型 OpenELM;微軟、清華團隊提出多頭混合專家 MH-MoE|大模型論文
- ▣ 最神秘國產大模型團隊冒泡,出手就是萬億參數MoE,2款應用敞開玩
- ▣ 獵戶星空發佈MoE大模型
- ▣ 全球科技早參丨微軟推出輕量級AI模型
- ▣ 生數科技與清華聯合推出視頻大模型Vidu
- ▣ 騰訊發佈最大開源MoE模型,3890億參數免費可商用
- ▣ 大模型初創企業MiniMax將發佈國內首個MoE大模型
- ▣ 中國科技公司推出多款模型與OpenAI的Sora競爭
- ▣ 阿里通義千問開源首個MoE模型
- ▣ 騰訊開源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK
- ▣ 第一個100%開源的MoE大模型,7B的參數,1B的推理成本
- ▣ 騰訊混元又來開源,一出手就是最大MoE大模型
- ▣ 一塊錢100萬token,超強MoE模型開源,性能直逼GPT-4-Turbo
- ▣ 螞蟻百靈大模型推出20億參數遙感模型
- ▣ 科大訊飛2024上半年虧損,在大模型研發等方面投入超6.5億
- ▣ 「天工大模型3.0」4月17日正式發佈——同步開源4000億參數MoE超級模型,性能超Grok1.0
- ▣ 科技早報 | 階躍星辰發佈“萬億”和“多模”大模型;黃仁勳6月套現近1.7億美元
- ▣ 從零手搓MoE大模型,大神級教程來了
- ▣ 幻方量化旗下DeepSeek發佈第二代MoE模型
- ▣ 商湯科技推出新版AI模型 股價暴漲一度暫停交易
- ▣ 永太科技:2023年預虧4.5億元—6.5億元 同比轉虧
- ▣ 5年鉅虧438億元,商湯科技“押注”大模型