譚待:國內大模型領域,七成以上跑在火山引擎之上

“國內有數十家做大模型的企業,大多已經在火山引擎雲上”。

4月18日,火山引擎“原動力大會”,火山引擎總裁譚待透露,他認爲,大模型不會一家獨大。與其他雲廠商力推自家大模型不同的是,火山引擎將接入多家大模型深度合作,爲企業和消費者提供更豐富的AI應用。

現場,火山引擎發佈自研DPU等系列雲產品,並推出新版機器學習平臺:宣佈支持萬卡級大模型訓練、微秒級延遲網絡,讓大模型訓練更穩更快。

談大模型:讓訓練快速跑起來

火山引擎總裁譚待談到,AI大模型有巨大潛力和創新空間,火山引擎會服務客戶做好大模型,共同推動各行業的智能化升級。

火山引擎總裁譚待

資料顯示,ChatGPT成爲人類歷史上最快獲得上億用戶的消費級互聯網應用。最新的GPT-4大模型,更是在法律、數學、生物學等多項測試中超過90%人類。

譚待表示,國內很多科技公司投入到大模型建設中,他們有優秀的技術團隊,也有豐富的行業知識和創新想法,但往往缺乏經過大規模場景實踐的系統工程能力。火山引擎要做的就是爲大模型客戶提供高穩定性和高性價比的AI基礎設施。

據悉,火山引擎機器學習平臺經過抖音等海量用戶業務長期打磨,支持單任務萬卡級別的超大規模分佈式並行訓練場景。GPU彈性計算實例可靈活調度資源,隨用隨取,最高可以爲客戶節省70%的算力成本。

談新構架:向“多雲多模型”架構演進

可以預見,大模型將帶動雲上AI算力急劇增長,AI算力的工作負載與通用算力的差距會越來越小,這會爲各家雲廠商帶來新的機會,同時也會對數據中心、軟硬件棧、PaaS平臺帶來新的挑戰。

基於此,譚待表示:“大模型需要大算力,虛擬化會帶來資源損耗,規模越大就損耗越多。未來3年內,大規模的算力中心,都將形成‘CPU+GPU+DPU’的混合算力結構,CPU負責通用計算,GPU負責AI計算,DPU負責資源卸載、加速和隔離,提升資源效率”。

字節跳動副總裁楊震原

從新架構新方案的角度來看,火山引擎發佈了新一代自研DPU,實現計算、存儲、網絡的全組件卸載,釋放更多資源給業務負載。據介紹,基於自研DPU的各類計算實例性能有顯著提升,例如適用於大模型分佈式並行訓練場景的GPU實例,相較上一代實例集羣性能最高提升3倍以上。

譚待表示,在大模型及下游應用發展推動下,無論傳統企業還是初創企業,對AI算力都有迫切需求,企業使用多家雲服務將成爲常態。同時,各行業有自己高質量的私有語料,大模型不會一家獨大,而是會在千行百業生長,形成多模型共生甚至協作的生態。“未來將是‘多雲多模型’的時代”,譚待稱。

據悉,火山引擎也順勢推出了分佈式雲原生平臺、多雲安全、多雲CDN、veStack混合雲平臺等系列產品,支持客戶更好地使用多家雲服務。(丁廣勝)