對話火山引擎總裁譚待:現在不看大模型帶動多少雲收入

12月18日,字節跳動對外發布豆包視覺理解模型,並把千tokens輸入價格降至僅爲3釐,比行業價格便宜85%。

與此同時,多款豆包大模型產品發佈更新,包括全面對齊GPT-4o的豆包通用模型pro,使用價格僅爲前者的1/8;音樂模型從生成60秒的簡單結構,升級到生成3分鐘的完整作品;文生圖模型2.1版本,首次實現精準生成漢字和一句話P圖的產品化能力,該模型已接入即夢AI和豆包App。

火山引擎總裁譚待透露,具備更長視頻生成能力的豆包視頻生成模型1.5版將於明年春季推出,豆包端到端實時語音模型也將很快上線。

在接受界面新聞等媒體採訪時,譚待談及了對業務的預期,稱現在火山引擎不看大模型帶動多少雲的收入,看的是有多少客戶用了豆包大模型,以及用得有多深。

火山引擎於2020年正式上線,是字節跳動旗下的雲服務平臺,有着和抖音、飛書、TikTok同等重要的地位,商業化發展得非常快。豆包大模型推出後,火山引擎會基於該模型對外提供服務。

但在激烈的市場競爭中,作爲後來者,火山引擎要躋身第一梯隊並不容易,因此更希望抓住大模型的風口,快速擴大市場份額。

譚待對火山引擎進軍雲計算市場表現得頗有信心。一方面,雲計算的市場空間依然非常大,火山引擎因爲服務抖音、今日頭條等超級App建立了規模優勢;另一方面,火山引擎希望在AI大模型的新技術變革中做到領先,並持續朝着這個方向前進。

以下爲界面新聞整理的採訪實錄:

問:幾家國內公司都有提到在做推理模型,字節跳動是否也在佈局?現在的進展如何?

譚待:字節跳動正在佈局推理模型,有些能力已經具備雛形,比如解數學物理代碼,但我們還需要把邏輯做得更完善了再推出,大家敬請期待,不會太久。

問:這一年,火山引擎的哪些業務發展是最快的?

譚待:我認爲有兩個事情很重要。一是圍繞大模型全軟件棧,包括模型本身要越來越強,越來越豐富,成本要做到合理可持續,落地要更容易;第二,因爲AI的出現,所有的基礎架構從CPU轉向GPU爲核心之後,雲原生也需要改變,我們認爲未來10年AI雲原生是更重要的事情。從雲原生到AI雲原生,火山引擎希望做成這一領域的領軍企業。

問:今年大模型帶動了多少公有云收入?有沒有達到預期?明年可能會有哪些計劃?

譚待:我現在不看帶動多少雲的收入,看的是有多少客戶用了我們大模型以及用得有多深。從這個角度來說,我覺得做得還是可以的,我們在整個市場份額上都做到了比較大的領先。

問:對雲廠商出海怎麼看?火山引擎是否在佈局海外市場?

譚待:我們也很重視出海,很多行業的客戶都在出海,我們將會把我們一些相關的經驗變成工具,能更好地服務他們。

問:豆包大模型的C端(消費端)產品今年特別火,同時又在做B端(企業端)市場,大模型的未來到底是在2B還是在2C市場?

譚待:從我們的數據來看,工作、娛樂、生產力的場景其實是差不多的,所以我覺得大模型就是2C和2B齊頭並進,因爲娛樂要處理信息,獲取知識要處理信息,處理工作要處理信息,企業自己運轉也要處理信息,這跟以前互聯網剛開始2C然後再2B時不一樣。

大模型跟過去所有的技術都不一樣。過去的技術C端跟B端是割裂的,但大模型C端和B端背後是同一個東西,就是那個模型本身,行業因此有了一個C端和B端協同的新方式。以前B端很多使用者是分離的,他感受技術好不好只能通過聽彙報、看實際案例,但現在他可以使用C端產品產生更直觀的感受。大家都願意使用豆包App,B端客戶大概率也會願意選擇豆包大模型。

問:火山引擎市場份額的增長,主要取決於哪些因素?

譚待:第一,把規模優勢做好,做好了以後每年自然就會增長,因爲規模大、彈性高、成本便宜,自然而然企業會遷移過來,或者有企業選擇你,這是一個很重要的因素。

第二,通過豆包App,我們把模型這個事做好也能夠得到很多關注,得到很多新的合作機會。

問:大模型還處於發展初期,大家現在主要以token使用量去收費。在新的商業模上,豆包有沒有新的考慮?

譚待:做成擴展的服務,未來用戶還能增值來使用。比如,我們跟車廠做的很多新的功能,將來會特別受用戶的喜歡,甚至用戶會爲此額外付費。對車廠來說,他們不是賣完一次車就完了,也能夠持續地跟用戶產生聯繫去獲得收入。這個在手機上已經實現了,我認爲未來在汽車和其他智能硬件上也會實現,核心是一定要做出新的有黏性的出彩的功能,大模型在這方面能發揮很大的價值。