AGI大辯論!楊植麟:無需定義,李大海:零邊際成本,王小川:造醫生?張鵬:是信念!

整理 | 杏娟、華衛

在 6 月 14 日剛剛開幕的 2024 北京智源大會上,智源研究院邀請了百川智能 CEO 王小川、智譜 AI CEO 張鵬、月之暗面 CEO 楊植麟和麪壁智能 CEO 李大海一起,由智源研究院院長王仲遠主持,展開了一場以“通往 AGI 之路”爲主題的對話。在這次對話中,當前國內最熱門的大模型企業掌門人紛紛分享了自己對 AGI 信仰、AI 安全、大模型價格戰等問題的看法。

我們看到,目前大家對 AGI 都有各自不同的理解:楊植麟認爲我們不一定要精準量化的定義,AGI 更重要的作用是讓大家對未來有所準備;王小川心中的指標是 AGI 能不能“造醫生”;李大海認爲執行任何任務的邊際成本都爲零時,就達到了 AGI;張鵬則把 AGI 當成一種信念。

對於價格戰,張鵬直接否認了智譜是價格戰發起方的說法;李大海認爲這有營銷成分在,大家都有利潤纔是健康的方式;王小川講述了價格戰的積極影響;楊植麟則強調了要價值迴歸。

對於安全問題,大家都承認了其重要性,但目前這似乎並不是大家會迫切重點投入的事情。

下面是本次圓桌對話的完整版本,基於錄音速記整理,AI 前線在不改變原意的基礎進行了刪減編輯。

大模型是否是通往 AGI 的基石?

王仲遠:各位都是國內頭部大模型公司的 CEO,各位是否相信大模型是通往 AGI 之路的一個基石?還是說它可能只是一個數據的壓縮,對產業界非常有價值但並不一定能夠通往 AGI?

楊植麟:我們認爲大模型是第一性原理,需要不斷提升模型的規模。就像仲遠剛剛說的,它確實本質上是一個壓縮,但這個壓縮可以產生智能,而且隨着不斷規模化這個模型,不斷做更好的壓縮,它能產生越來越多的智能。

當然,這個過程中會有很多挑戰,比如最大的挑戰是並不一定有那麼多的數據,有的領域並沒有那麼多數據,或者假設你想最後做一個比人類更好的 AI,但可能根本不存在這樣的數據,因爲現在所有的數據都是人產生的。所以最大的問題是怎麼解決這些比較稀缺、甚至一些不存在的數據,但是規模化定律或者大模型本身可能沒有太本質上的問題。

王小川:我認爲“基石”這個詞是沒有問題的。今天我們看到了 Scaling Law 帶來的提升,但它只是在逼近 AGI。Scaling Law 是大家看到的第一件事,還有一件被忽略的事情是,我們把語言放到了大模型體系裡,把語言變成了數學,語言在符號主義跟連接主義之間產生一個突破。

再往後走還必須有泛式改變,比如大模型靠數據驅動學習能夠做壓縮,之前像 AlphaGo 那種自我思考的系統也會有這樣的作用。所以我的結論是,這個時代要讓足夠多科學家進來、更多資源進來,以便我們能夠走向 AGI。但是,僅以現在公開大家看到的 Scaling Law 是做不到 AGI 的。

張鵬:首先同意小川說的,它肯定是基石,是不是“之一”?這是另外一個問題,這個問題涉及怎麼定義 AGI。

站在我們現在看到的角度,我覺得做人工智能這波人挺實用主義的,所謂的實用主義就是咱們“不看廣告,看療效”,這個東西能不能解決問題?能不能真的在我們每個人心中定義的 AGI 路徑上推進一步?大模型目前在很有效地推進這件事情,Scaling Law 還在有效前進。

至於它是不是能夠幫助我們走到頂峰?我們現在找不到一個確切的答案,但是我們相信它在這個階段是有效的,所以我認爲它肯定是基石,至少是基石之一,這個沒問題。

李大海:我個人是數學專業畢業的,所以我會比較嚴謹地去表達。我認爲大模型一定是通往 AGI 這個方向上當前所有技術裡能走得最遠的,那它能不能直接達到,現在還有很多未知因素,包括剛纔提到的定義是什麼。

我提一個大家沒有提到的點,現在的大模型作爲知識壓縮,主要是在處理人的大腦系統 1 的工作,這種慢思考的系統 2 的工作,比如做各種各樣推理,搜索空間去做搜索組合來完成一個任務,可能需要未來的大模型通過 Agent 技術外部化或者把它內化爲自己的能力,這是需要大家去探索的。

到底什麼是 AGI?

王仲遠:確實有一個非常有意思的問題,我們總在討論 AGI,但似乎連 AGI 的定義都沒有廣泛共識。各位心裡認爲什麼叫 AGI?

楊植麟:首先,AGI 的定義是重要的,但並不一定現在就需要精確的、有量化的定義,它可能是一個定性的、感性的東西。它最重要的作用是能讓這個社會或者所有人能夠對接下來要發生什麼事情有一個準備。因爲未來技術節奏可能非常快,我們如果能夠知道 AGI 是什麼樣的就可以更好地做準備。不管是對每個人的職業發展,還是行業未來發展,這個是重要的。

第二,一定程度上,短期內需要一些量化。如果沒有完全量化就沒有辦法衡量 AGI 開發進度是什麼樣的。所以,短期來說這個是很難的問題,也是很大的挑戰。

王仲遠:我們需不需要圖靈測試?

楊植麟:傳統的測試現在不完全適用了,即使它通過了圖靈測試,還有大量人可以做得非常好,但 AI 基本沒法做的事情。這不是一個很容易的問題,你需要對裡面的評估維度做很多拆分。比如會有不同的知識能力、推理能力和創造能力,評估的方式完全不一樣。

王仲遠:小川咱們上次在央視對話欄目提到去年是智能紀元的元年,這個智能紀元是 AGI 的元年嗎?

王小川:上次提到現在是元年,是因爲我們掌握了 Scaling Law,同時掌握了把語言變成數學,這是一個重大的起點。機器掌握語言,我覺得是一個翻天覆地的變化。大家以前講圖片識別很厲害、無人駕駛很厲害,但我可能調侃說狗也可以自己導航、看圖片,但狗是不會語言的,語言代表了我們認知世界的一種範式。

我特別喜歡你剛纔的這個問題:什麼是 AGI?這在全球很難有完整的共識。我們通過變換把它從一個空間換成另一個空間來判斷。

我用一個大家可以評測的指標來看,這個指標在我心中是接近等價的,就是能不能造醫生。

爲什麼這麼說?之前我們談 AGI,一種理解是把它當成工具。這次 AGI 的第一個變化是它開始有思考能力、學習能力、溝通能力、共情能力,甚至多模態圖片處理能力。從它的學習泛式要求裡,我覺得我們就是像在看人一樣看它。還有一種做法是跟人差異化的角度看,但是從今天共識的評價指標或學習泛式裡,它就是在向人學習,數據來自人類社會產生的數據,所以我是拿人的職業跟它比較。

醫生在所有的職業裡是智力密度最高的一個,既需要多模態,也需要少幻覺,還需要記憶力,有推理能力、查文獻能力等等。

那做到醫生是否就算做到 AGI 了?可能有一種聲音:醫生只是一個 Vertical,醫生比這個低。但“人造”醫生太難了,裡面有太多的幻覺問題,有太多推理能力不可靠的問題。如果醫生比 AGI 低,但醫生都造不了,咱們就別談 AGI 這件事情。如果你說醫生比 AGI 高,但醫生也只是造人的各個種類中的一種。在我的邏輯裡,醫生和 AGI 可以基本劃等號。

數學上有個題目,就是自然數和偶數哪個多?我們第一反應是偶數比自然數少,偶數是自然數的子集,實際上我們應該知道它們是一樣多的,因爲每個自然數乘以 2 就是個偶數,它們兩個是可以映射的。類似地,今天行業上能共識的能力,都可以映射到對醫生的要求裡,因此我拿這個作爲一個標準,人造醫生就是 AGI。

王仲遠:大海對 AGI 怎麼去理解?

李大海:我會嘗試從經濟學的角度來定義 AGI:如果我們執行任何一個任務,邊際成本都爲零,那這就是我們理想中的 AGI。

回到我剛纔說的,爲什麼我認爲大模型會走得最遠,因爲我相信大模型能夠把邊際成本一直往下降,可能會逼近於零。就像植麟剛纔講的,很多時候需要我們在各行各業產生一個數據飛輪,讓模型持續訓練、持續學習,讓整體成本降下去。

我們去年看到大家做大模型落地的時候,很多場景都需要做微調,這個邊際成本就很高。我們相信隨着模型能力的提升,從微調逐步地只需要做 Prompt generate,慢慢地連 Prompt generate 都不需要做,模型直接就問你到底有什麼需求。如果你講不清楚那就我來問你。通過這種方式,我相信未來的門檻會越來越低,成本會越來越低。低到接近於零的時候,我覺得 AGI 基本就到來了。

我額外還想補充一個觀點。現在大家都在講怎麼把模型做大。剛纔小川提到一個關鍵詞,叫“智能密度”。我們覺得大模型的智能密度也是一個非常重要的事情。當有一天達到 AGI 的時候,我們還要做的事情就是大模型的小型化。如果用一個 10 萬億的參數模型做到了 AGI,那能不能把 10 萬億的參數降到 1 萬億、降到 1000 億?這也是一個要持續突破的事情。

王仲遠:其實,面壁智能以及智譜跟智源都有非常深厚的淵源,當年面壁的劉知遠老師以及智譜的唐傑老師,跟智源一起做悟道系列大模型。想請教一下張總,從最開始做悟道系列,再到後來智譜系列大模型,最開始有考慮到它可能實現 AGI 嗎?您對 AGI 是怎麼理解的?

張鵬:在我們看來,與其說 AGI 有一個很嚴格的定義,其實我更願意相信它是我們的一種信念,是一個符號,它的內涵、外延是在不斷變化的。

剛纔提到早期定義 AI 的時候,怎麼來檢測一個系統是否是 AI 系統?圖靈測試。但現在大家已經覺得這個過時了,就是因爲隨着技術的不斷演進,我們對事情的認知越來越多、越來越深。同樣的,這三個字母所代表的含義是不斷在變化的,是動態的。

剛纔植麟也講,它是一個 Balance 的事情,如果你能把一個事情說得非常量化、非常清晰,那這件事情也就那樣了,估計大家都能看到天花板在哪兒了。現在的問題就在於,沒有人能夠說清楚。反過來講這是一個好事,意味着這個事情還有很多未知空間等待我們探索。

對我們來說,AGI 可以定義爲我們的目標。當前我們的目標是以人爲參照,讓機器像人一樣思考,這是我們的願景。當然,機器的能力遠不止人的水平,我們期待它可以出現超越人的能力,所以,我們會 AGI 裡提到 super intelligence,看下一步它是否能產生超過人的水平,我們會不斷更新 AGI 的內涵和外延。

Scaling Law 是否繼續有效?

王仲遠:植麟也跟智源有非常深厚的淵源,當年也是悟道系列核心的技術骨幹,也是智源的青年學者。今天大家反覆提到一個詞 Scaling Law,我不知道植麟對 Scaling Law 還是特別堅信嗎?

楊植麟:就像我剛纔說到,Scaling Law 沒有本質的問題,而且接下來 3-4 個數量級,我覺得是非常確定的事情。更重要的問題是,怎麼能夠很高效地去 Scale、你應該 Scale 什麼東西。如果只是像現在搞一堆 Web test,那它就不一定是對的方向。這裡面可能會遇到很多挑戰,比如推理能力不一定能夠在這個過程中解決。

怎麼定義 Scaling Law?如果沿着當前的方法做 Next token prediction,再去 Scale 很多個數量級,然後用跟現在完全一樣的數據去做分佈,我覺得它的上限是很明顯的。但是 Scaling Law 本身並不受這個限制,只要有更多的算力、數據模型參數變大,就能持續產生更多的智能,

但是這並沒有定義模型是什麼樣的,比如要多少個模態、中間數據是什麼樣的,也沒有規定你的 Loss function 是什麼樣的,所以 Scaling Law 是會持續演進的,只是在這個過程中 Scale 的方法可能會發生很大的變化。

像大家一直在講的世界模型,本質上現在的大語言模型是世界模型的一個特例,只是先把裡面的一部分給做了,但是還能持續擴充訓練方式,所以我覺得 Scaling Law 會持續。

王仲遠:小川,您對 Scaling Law 未來幾年持續發揮作用怎麼看?

王小川:我覺得 Scaling Law 到目前爲止沒有看到邊界,它在持續發揮作用。馬斯克號稱要買 30 萬片 B200 來做,從這方面看,美國確實在這方面的認知程度,甚至投入程度是遠遠高於中國的。

在我看來,我們一定要在 Scaling Law 之外,尋找範式上的新轉化,比如數據、算法、算力。不管從戰略上還是從信仰上,我認爲在 Scaling Law 之外都還有範式的變化,不只是簡單的 predict token、變成壓縮模式,走出這樣的體系纔有機會走向 AGI,纔有機會跟前沿技術產生較量。

王仲遠:張鵬,您對 Scaling Law 的看法呢?

張鵬:我剛纔在講 AGI 的時候已經表達了一些觀點。人類目前爲止認識的所有規律也好、物理定律也好、什麼也好,都有可能有推翻的一天,只是看它的有效期是多長。前面加一個定語的話,目前爲止,我們還沒有看到 Scaling Law 會失效的預兆,未來相當一段時間之內它仍然會有效。當然,所謂的“有效”也是一個動態概念,它本身所包含的事情會不斷演進。

就像小川說的,Scaling Law 早期關注的就是參數量,現在慢慢擴展到數據量很重要,數據質量也很重要,它的內涵也在慢慢變化。隨着大家對規律的認知越來越深,規律的本質越來越被揭示,所以掌握本質就能掌握通往未來的鑰匙。基於現在大家對本質認識的深淺,在我們看來,Scaling Law 仍然起效,會是未來我們主力推進的方向。

王仲遠:之前 GPT-5 傳過幾次說要發佈,但似乎一直都在推遲。如果我們從追逐 GPT-4 到突破 GPT-4、再往 GPT-5 的方向去發展,現在 Scaling Law 有出現邊界效應嗎?

張鵬:因素有很多種,包括傳說的 GPT-4.5 和 5 什麼時候發佈,這裡面的因素非常多。就拿我們自己來說,我們也在選擇一條不斷去遵循 Scaling Law 往前進的道路。舉個例子,最開始我們開始做悟道的時候,就討論過做稠密單體模型還是 MOE 稀疏多體模型的方案。這就是當時我們認爲,如何去滿足 Scaling Law 或者追尋 Scaling Law 的不同路徑。

但發展到今天,其中的維度已經非常多,可以在很多方面去做這個事情。同樣,反過來看這個問題,你會發現複雜度又上升了,不是簡單地追求參數量上去就行的,難度也變大了。所以我理解,想要實現 GPT-5 或者再下一代模型,要探索的技術可能性非常多,包括正反兩方面。

王仲遠:面壁主要是關注在端側的大模型,在輕量級的大模型上,Scaling Law 也是有效的嗎?

李大海:我認爲 Scaling Law 是非常重要的,但我也非常認同張鵬的意見。Scaling Law 是一個經驗公式,是行業對大模型這樣一個複雜系統觀察以後的經驗總結,隨着訓練過程中實驗越來越多、認知越來越清晰,會有更細顆粒度的認知。比如我們自己發現,訓練模型中的訓練方法本身對於 Scalinglaw、對於智能的影響是比較顯著的,尤其在我們固定住參數規模以後變得非常重要。現在大家覺得參數規模能夠不斷地往上放大,但一旦固定讓端側芯片去支撐規模模型做到足夠好的智能,那麼數據質量、訓練方法等都會變得非常重要。

王仲遠:最近關注到 Stanford 的 Llama 團隊抄襲了面壁的 MiniCPM-Llama3-V 2.5 模型,怎麼看待這個事件?

李大海:這件事情在國內引起了非常大的反響,我們也完全沒有想到會以這種方式出圈。在這裡也想澄清一下,我們認爲這是海外個別學生組成的小團隊做的個人行爲,不代表 Stanford 學校事件發生以後,Stanford 的系主任以及整個西方的同行也都表達了非常正的價值觀。另外,我們會更加堅定地相信開源的力量,這件事也是靠開源的熱心參與者發現並曝光出來,讓我們能夠儘快地知道和糾正這樣的行爲。

我們在 5 月 20 號把模型開源出來, 29 號這幾個本科生小朋友在模型上疊加一些高斯噪聲後,號稱是自己的模型。當然,這個模型一下子變得很受歡迎,主要原因是他們宣稱這個模型的多模態能力跟 GPT-4V 完全對標,但參數只有後者的 1%,且只需要 500 美金就可以訓練出來。前兩項是真的,但 500 美金是訓練不出來,還是要花很多錢。開源的力量是很強大的,不光是有做原創工作的人,還有很多貢獻需求、反饋的參與者,都是開源生態中的重要組成部分,持續地做開源貢獻能夠給公司帶來正向的收益。

王仲遠:智源也非常堅信開源的力量,過去一年我們在開源社區發佈的各種模型,下載量也非常大。百川把自己花了不少錢訓練的大模型對外開源的考量是什麼?

王小川:一是有這樣的市場需求。當時美國既有大的閉源生態,也有開源生態,中國是正快速入場做大模型,我們把自己當時最好的模型開源後,在市場上產生了蠻好的影響力,得到了很多認可和好的 credits。這些對我們是挺大的鼓舞,不管人才的儲備還是資本的關注,也算是給行業交了一個投名狀。

還有一個心態是,我們也看到模型在快速進步,可能今天是最好的模型,明天就不夠好了,所以我們在商業競爭裡也沒什麼大的損失。這是一件既有貢獻又不會降低競爭力的事情,我們就毅然決然做了這樣一個決定,符合市場預期,也給公司帶來了聲譽。今天有各種公司做各種各樣的開源,使得中國的模型生態在追趕美國,我也希望大家能夠把生態越做越好。

AI 安全是你們最緊迫的問題嗎?

王仲遠:隨着大模型發展,AI 安全問題被不斷討論。各位都是做企業的,我想了解一下怎麼去看在大模型產業的 AI 安全?是當下最急迫的問題嗎?

楊植麟:AI 安全是非常重要的,可能不一定是當前最急迫的,但需要我們提前去準備。因爲隨着模型的進展,Scaling Law 的發展是每 N 個月算力乘 10 倍,這是一個逐漸去適應的過程。最重要的是兩個方面,一是模型本身會因爲用戶的惡意意圖去做一些本來不應該做的事情,比如在 prompt 裡注入一些不太恰當的意圖,需要去關注;二是模型本身是否會有自己的 motivation,這是跟訓練方式相關的,包括能不能在模型的底層去注入 AI 憲法去框定行爲,不管用戶給什麼指示,都不會違背憲法。

王小川:安全有不同的內涵和外延,所以我想提三個相關的事情。第一是意識形態的安全,做 to C 有這樣一個服務,作爲中國主權的大模型,意識形態上跟國家發展保持一致是大家的基本功,每個模型有他們的價值觀,我們有我們的價值觀,這是對民族、對社會負責任的一件事情,是底線。

第二是大家空談得比較遠的安全:模型是不是把人類毀滅了?我內心最不希望它像核彈一樣把人類文明搞沒了,但至於模型是不是比人更聰明,能夠取代人做事情,我覺得這是值得鼓勵的。因爲延續人類文明纔是重要的,人的肉身會死亡,技術跟人類一塊拓展文明是有意義的,不要去限制。我去年寫了一封公開信,AGI 幫助我們延續和繁榮人類文明是一個目標,讓人類更好的延續,而不是讓機器當我們的奴隸、工具,這是以文明爲標準去看待安全。

第三是比較現實的安全,剛纔提到 AGI 是什麼、怎麼評測?我跟很多人聊拿 AGI 做醫生時,大家都覺得很難、現在搞不定。如果連這個都做不到,那我們就不要想它會顛覆人類的事。所以當前大模型還沒碰到今天人類文明安全的邊界,還要努力把模型能力提上去。

王仲遠:前一段時間智譜簽了 AI 安全承諾,當時是什麼考量?

張鵬:智譜一直很注意安全相關的事情,尤其在 AI 安全方面。當時有 15 家 AI 相關的企業,來自全球各地各大洲,一起簽署負責任的 AI 承諾書。安全只是其中一部分,我們叫“負責任的 AI”,除小川講的三個方面的安全外,還有更低的問題,即如何保證和努力讓技術幫助人類、社會、地球,而不是去作惡。

當然,人有兩面性,很難保證沒有人拿 AI 去作惡,現實社會中已經發現有人在這樣做,防守永遠比破壞要難,需要大家共同努力。我相信這個事情更重要的意義並不是現在能拿出多麼安全的技術、方法或者管理規定去約束大家,而是增強大家的瞭解和統一的認識,大家能夠坐下來正面這些問題,希望更多人一起參與討論這件事情,總有解決問題的辦法。

李大海:我認爲現在這個階段,安全主要還是聚焦在基礎安全跟內容安全兩個方向上。現在的大模型本質上是隻讀的,模型訓練也好,權重是固定的,推理不會影響權重,權重都是在線下持續階段去訓練的。有一天,當我們把模型部署到機器人等終端上,它能夠去動態更新自己的權重以後,安全問題會變成一個非常重要的問題。

怎麼看待大模型價格戰?

王仲遠:最近有好多記者朋友都在問我,對於最近的大模型價格戰怎麼看?我當時給他們的回覆是“智源研究院堅定地擁抱開源,免費給整個產業界、整個社區使用”。想請教一下諸位對於大模型價格戰的看法,它是更有利於大模型的普及,還是過於激烈的價格戰不利於企業的發展?

楊植麟:這是很好的問題。如果我們把時間線拉足夠長的話,最終還是要回歸價值本身。

我自己有三個判斷:第一,接下來我們去看算力的投入,可能投入在推理上的算力在某個時間點之後應該可以顯著超過訓練方面,這標誌着價值開始得到釋放,前面用來訓練的成本是可以很大程度上被覆蓋。第二,如果從 C 端的角度來說,推理成本可能會顯著低於獲客成本,所以從商業本質上來講,可能不會跟之前的各種商業模式有非常本質的區別。

有了這兩個之後,很重要的是第三個因素,現在 AI 在整個人的工作流程裡面的佔比還是很低的,可能是 1%。也就是說,人做的事情要遠遠多於 AI。但 AI 本身做的事情可能會在某個時間點超過人做的事情,這時就可能產生新的商業模式,不是像今天的在 B 端用 API 做價格戰,可能是一個普惠的 AI,同時根據它產生的價值去分成產生的商業模式。

王小川:先說結論,今天的價格戰對中國發展大模型來說是非常特別的,我是積極看待這個事情。

首先,好不好得看對單個公司還是對一個羣體或整個市場。因爲價格戰通常是市場行爲和競爭導向,至少帶來兩個好的後果:第一,更多公司和人用上大模型了,很多企業之前是不懂這個的,現在開始免費用 POC,使得大模型在中國迅速普及;第二,我觀察到,很多企業但凡有點技術能力都要自己訓點大模型,甚至來找我們怎麼聯合訓練。明明它們該是大模型的使用方,但都想轉型成爲大模型的供給方。這種情況下,帶來很多人才、資金和社會的浪費。

有了價格戰之後,很多企業開始清醒了,退回來成爲大模型的用戶。這樣既能爲其帶來啓蒙,也能減少社會資源消耗,市場的分層做好後,每家企業都能受益,競爭力就能起來。我們不需要一千、一萬個大模型,在沒有價格戰的時候,中國可能真的是上百、上千個大模型在進行。

張鵬:有人說我們是這輪價格戰的發起方,子虛烏有。在那之前,我們一直秉持的概念就是給用戶帶來最大的收益價值,用我們的技術、創新降低使用成本,讓大模型能夠更多地普及、更多人能夠享受收益。很長一段時間裡,我們的價格都是行業內極低的。因爲我們的技術確實能做到那一步,把中間的成本空間釋放出來當作大家的收益,幫助大家把 ROI 只當成是一個數字。

從宏觀角度來講,這件事對中國大模型產業是有利的,讓更多人來使用,並且真的把大模型當作便宜、隨時可用的基礎設施,對企業的收益是更好的發展空間和態勢,這也是我們一直在堅持做的事情。但也要注意,不要過多地關注、宣揚這件事情,犧牲企業短期的成本、虧本做買賣不是正常的商業邏輯,只能持續很短的時間,還是要回歸最終的用戶價值、生產力價值。

李大海:我們做端側大模型,就是看到了端側能更早、更快落地的可能性。最近有機構做過一個調研,發現全國 10 億用戶的手機端側算力,相當於差不多 100 萬片 A100,這是一個非常誇張的數字。如果不同手機上的算力能夠被好好利用起來,很多應用就可以落地了。

當然,從現在到未來,都需要端側跟雲側模型好好協同。端側的優勢是隱私性好、更可靠,但云上的模型肯定要比端側好。當前所謂的價格戰,多少有一些營銷的成分在,大家都有利潤纔是健康的方式,並且真正讓千行百業的大模型應用往下落地。

內容推薦

AGI 概念引發熱議。那麼 AGI 究竟是什麼?技術架構來看又包括哪些?AI Agent 如何助力人工智能走向 AGI 時代?現階段營銷、金融、教育、零售、企服等行業場景下,AGI 應用程度如何?有哪些典型應用案例了嗎?以上問題的回答盡在《中國 AGI 市場發展研究報告 2024》,歡迎大家掃碼關注「AI 前線」公衆號,回覆「AGI」領取。

2024年, 極客邦科技旗下 InfoQ 中國已圓滿啓動3場技術盛會,在即將到來的8月份,FCon全球金融科技大會和AICon 全球人工智能開發與應用大會上海站將聯袂來襲,AI+金融、技術前沿+行業前沿,一站式體驗並獲取多重乾貨。

6 月 30 日前報名購票可享受 8 折優惠,單張門票節省 960 元(原價 4800 元),如您感興趣,可掃描下圖二維碼或聯繫票務經理 13269078023 諮詢購票。

今日薦文

你也「在看」嗎?