AI十人談①|張鈸院士:對大模型本身的學術研究非常迫切、重要

2023年以來,大模型領域持續火爆,各方力量持續入局,在快速推進人工智能時代到來的同時,也顯現出各種問題和挑戰。

中國科學院院士、清華大學人工智能研究院名譽院長張鈸表示,對大模型本身的學術研究非常迫切、重要。到現在爲止國內的大模型主要集中在垂直領域應用上。而全世界對大模型的理論工作原理、所產生的現象都是一頭霧水,所有的結論都推導產生了“涌現現象”。“實際上這反映了我們對它一點不清楚。這個問題必須搞清楚,我們纔有可能發展出有中國特色的大模型。”張鈸表示,對此,有三個方面的問題研究比較重要。

首先是“大模型爲什麼能夠產生出來非常連貫的、多樣化的人類語言?”在他看來,這主要靠三方面的措施,第一是文本的語義表達,也就是把文本里的詞、句、段落全變成向量,這給構造一個連續的拓撲空間創造了條件。第二個是轉換器,注意力機制可以保證上下文的一致性。最後是下一個詞的預測。

第二個問題是,大模型爲什麼會產生幻覺?他指出,這個問題涉及ChatGPT跟人類自然語言生成原理的不一樣,最根本的區別在於,ChatGPT生成的語言是外部驅動的,而人類的語言是在自己意圖的情況下驅動的,所以ChatGPT內容的正確性和合理性是不能保證的。

“只有經過ALignment(對齊)才能解決這個問題。”張鈸指出,之所以能從GPT3.5到GPT4,幾個月時間有那麼多變化,主要就是“對齊”的功勞。在“對齊”方面,國內做的工作太少。不過他同時也指出,做“對齊”是做治理,治理以後內容的多樣性會下降,所以還需要平衡開放和治理的關係。

張鈸把ChatGPT生成的語言稱作GPT語言。在他看來,第三個需要研究的問題是,將來努力的方向是什麼,是不是把GPT語言完全對齊到人類的自然語言?他認爲這個可能性不大。“因爲想實現這個目標,你必須讓GPT有自我意識。”

這樣(讓GPT有自我意識)沒有必要。他強調道,因爲人工智能追求的是機器智能,希望這個智能和人類的智能不一樣,它某些方面比人類有優勢,某些方面比人類有缺點,只有這樣人類才能和機器和平共處。“目前最重要的是,我們要研究、瞭解GPT語言,只有徹底瞭解了它,才能更好地發展它,使用它,或者說從產業角度來講纔可以發展出更健康的人工智能產業。”

人工智能產業如何做大做強,是目前這一領域從業者遇到的最大問題。張鈸分析稱,和信息產業相比,人工智能產業的發展過程更曲折。這主要緣於兩個原因。一是目前人工智能的軟硬件與應用場景、應用領域密切相關。比如,人工智能的“智能芯片”與計算機的芯片完全不同,前者是爲特定的算法、領域服務的,不具備計算機硬件的通用性,因此會遇到如何擴大市場的困擾。

二是人工智能缺乏理論基礎,算法和模型都具有很大的缺陷和侷限,這也對它的應用領域產生了限制。由於它的方法本身的限制,比如安全性、隱私保護等,使得人工智能的應用領域也受到限制。

對此,張鈸提出了兩點意見。首先,人工智能要往各種維度去發展。比如,語音信息處理就不僅是語音或說話人識別,可以擴展到其他應用領域,不僅能用來做身份鑑別,也可以用來診斷疾病,診斷機器的問題或者觀察機器的運行等。

其次,人工智能要有維度上的擴展,這是針對算法本身的侷限性。機器學習的方法是運用大數據處理,而大數據的處理方法雖然有很多優點也很實用,但本身並不安全。“我們需要通過對算法缺陷的改進,也就是發展第三代人工智能的思路來擴展它的應用範圍。”張鈸介紹稱,這包括數據與知識的結合、多特徵的融合、多種模態的結合以及軟硬件的結合等。

“從傳統人工智能到生成式人工智能的變化是劇烈的,這讓我們有理由、有底氣相信,它會改變這個世界。生成式人工智能一方面能夠給企業家帶來機會,企業家有使命去利用這個機會發展新產業;另一方面,也給企業家帶來責任,企業家在開發、應用大模型時,一定要考慮可能產生的負面影響。”張鈸說。

新京報貝殼財經記者 孫文軒

編輯 徐超

校對 付春愔