打着“開源”旗號的AI大模型,可能會有一些陷阱?

ChatGPT 的問世,讓更多人開始有機會使用強大的人工智能(AI),但這個聊天機器人的內部運作機制仍是一個未公開的秘密。

因而,近幾個月來,讓人工智能更加“開放”的相關工作似乎獲得了人們的更多關注。

今年 5 月,有人泄露了 Meta 公司的“Llama”模型,讓外界可以訪問其底層代碼以及決定其行爲的模型權重等。今年 7 月,Meta 又推出了功能更強大的模型 Llama 2,聲稱供任何人下載、修改和重複使用。自此,Meta 的 Llama 系列模型成爲了許多公司、研究人員和人工智能業餘愛好者構建具有類似 ChatGPT 功能的工具和應用程序的基礎。

“我們在世界各地擁有廣泛的支持者,他們相信我們對當今人工智能的開放方法......研究人員致力於使用該模型進行研究,而科技界、學術界和政策部門的人們也和我們一樣,看到了 Llama 和開放平臺的好處,” Meta 在發佈 Llama 2 時說。日前,Meta 也發佈了另一個模型——Llama 2 Code,該模型針對編碼進行了微調。

數十年來,開源方法使軟件的獲取變得更加民主、確保了透明度並提高了安全性,現在似乎也被認爲可以對人工智能產生類似的影響。

但這或許還遠遠不夠。

來自卡內基梅隆大學(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金會(Signal Foundation)的研究團隊,在一篇題爲“Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”的論文中,探討了“Llama 2”和其他以某種方式“開源”的人工智能模型的現實情況。他們表示,打着“開源”旗號的模型可能會有一些“陷阱”。

據論文描述,儘管 Llama 2 可以免費下載、修改和部署,但它不在傳統的開源許可範圍內。Meta 的許可證禁止使用 Llama 2 訓練其他語言模型,如果開發者將 Llama 2 部署到每日用戶超過 7 億的應用程序或服務中,則需要特殊許可證。

這種程度的控制意味着 Llama 2 可以爲 Meta 帶來重大的技術和戰略利益——例如,當外部公司在自己的應用程序中使用 Llama 2 模型時,Meta 可以從有益的調整中獲益。

研究人員說,在普通開源許可下發布的模型,如非營利組織 EleutherAI 的 GPT Neo,開放程度更高。但這些項目很難與大型公司推出的模型競爭。

首先,訓練高級模型所需的數據往往是保密的;其次,構建此類模型所需的軟件框架通常由大公司控制,最流行的兩個軟件框架 TensorFlow 和 Pytorch 分別由谷歌和 Meta 維護;再者,訓練大型人工智能模型所需的計算機能力也非一般開發人員或公司所能承擔,通常一次訓練需要數千萬或數億美元;最後,完善和改進這些模型所需的人力也大多是大公司才能獲得的資源。

因此,研究團隊認爲,從目前的趨勢來看,這項數十年來最重要的技術之一最終可能只會豐富和增強少數幾家公司的能力,其中包括 OpenAI、微軟、Meta 和谷歌。如果人工智能真的是一項能改變世界的技術,而且能得到更廣泛的應用和普及,就能爲全世界帶來最大的好處。

“我們的分析表明,(這種程度的)開源不僅不會使人工智能‘民主化’,” 該論文的作者之一 Meredith Whittaker 告訴《連線》(Wired),“事實上,公司和機構可以而且已經利用“開源”技術來鞏固和擴大權力集中。”

進一步說,即使是最開放的“開放”人工智能系統,其本身也不能確保人工智能的民主獲取或有意義的競爭,開放本身也不能解決監督和審查的問題。

Whittaker 補充說,開源應該成爲亟需制定的人工智能法規的一個重要考慮因素,“我們確實亟需有意義的替代技術,來取代由大型壟斷企業定義和主導的技術——尤其是當人工智能系統被整合到醫療保健、金融、教育等具有特殊公共影響的高度敏感領域時。創造條件讓這種替代成爲可能,是一個可以與反壟斷改革等監管運動共存甚至得到其支持的項目。”

研究團隊也表示,除了制衡大公司的權力之外,讓人工智能更加開放對於釋放該技術的最佳潛力——同時避免其最壞的傾向——可能至關重要。

如果我們想了解最先進的人工智能模型有多大能力,並降低部署和進一步發展可能帶來的風險,那麼最好向全世界的科學家開放這些模型。

正如“隱晦式安全”(security through obscurity)永遠無法真正保證代碼的安全運行一樣,對強大的人工智能模型的工作原理加以保護,也未必是一個最明智的做法。