研究人員驚憂:人工智能或讓人類淪爲混蛋

人們開始把計算機當作人類,向來都不需要太多條件。自從 21 世紀初基於文本的聊天機器人首次開始受到主流關注以來,一小部分技術用戶會花費數小時跟機器對話。在某些情況下,用戶覺得自己和無生命的代碼串建立了真正的友誼,甚至是浪漫關係。至少有一位 Replica(一種更現代的對話式人工智能工具)的用戶甚至 與他們的人工智能伴侶虛擬結婚。

OpenAI 的安全研究人員,他們對於公司自家的聊天機器人似乎向一些用戶尋求關係的情況並不陌生,現在警示與這些模型過於親近存在的潛在陷阱。在最近對其新的 對話式 GPT4o 聊天機器人的 安全分析 中,研究人員表示,該模型逼真且聽起來像人類的對話節奏,可能致使一些用戶將人工智能擬人化,並且像信任人類那樣信任它。

[ 相關:美國 13%的人工智能聊天機器人用戶只是想聊天 ]

研究人員補充道,這種額外增加的舒適感或信任感,可能會導致用戶更易於將虛構的人工智能“幻覺”當作真實的事實陳述來相信。

與這些日益逼真的聊天機器人互動如果花費過多時間,最終可能會對“社會規範”產生影響,而且這種影響往往並非是積極的。報告指出,其他特別孤立的個人可能會對人工智能產生“情感依賴”。

GPT4o 於上月下旬開始推出,其專門設計成以更具人性化的方式進行交流。與之前的ChatGPT不同,GPT4o 使用語音音頻進行交流,並且能夠幾乎像另一個人一樣快速(約 232 毫秒)響應查詢。其中一個可選的人工智能聲音,據說聽起來類似於斯嘉麗·約翰遜在電影《她》中所扮演的人工智能角色,已被指責過於性感和輕佻。具有諷刺意味的是,這部 2013 年的電影聚焦於一個孤獨的男人,他與一個通過耳塞與他交談的人工智能助手產生了浪漫的依戀。(劇透,對人類來說結局並不好)。約翰遜已經指責 OpenAI 在未經她同意的情況下複製了她的聲音,但該公司予以否認。與此同時,奧特曼此前稱《她》“極具預見性”。

但 OpenAI 的安全研究人員表示,這種對人類的模仿可能不僅是偶爾出現令人尷尬的交流,還可能會進入潛在的危險領域。在報告題爲“擬人化和情感依賴”的部分中,安全研究人員表示,他們觀察到人類測試人員所使用的語言表明其正在與模型形成強烈且親密的約定。據報道,其中一名測試人員在與機器告別之前說了“這是我們在一起的最後一天”這句話。研究人員表示,儘管看似“無害”,但這些類型的關係應該進行調查,以瞭解它們“在更長時間內如何表現”。

該研究指出,與聽起來有點像人類的人工智能模型展開的這些長時間對話,可能會產生影響人與人之間互動的“外部性”。換句話說,與人工智能交談時學到的對話模式可能會在同一個人與人類進行對話時突然出現。但與機器和人類交談是不一樣的,即使表面上聽起來相似。OpenAI 指出,其模型被編程爲順從用戶,這意味着它會放棄權威,讓用戶打斷它們,並以其他方式主導對話。從理論上來說,習慣與機器交流的用戶可能會發現自己插話、打斷別人,並且不遵循一般的社交暗示。將與聊天機器人對話的邏輯應用於人類可能會使一個人變得尷尬、不耐煩或只是純粹的粗魯。

人類對待機器的方式向來沒有良好的記錄。

據報道,Replica 的一些用戶利用該模型對用戶的順從,使用了辱罵、斥責和殘忍的語言。

今年早些時候,接受《未來主義》採訪的一位用戶聲稱,他威脅要卸載自己的 Replica AI 模型,只是爲了聽到它求他不要這樣做。

更具人類情感的聊天機器人不一定全是壞事。

在報告中,研究人員認爲,這些模型可能對那些渴望某種類似人類交流的孤獨人羣特別有益。

在其他地方,一些人工智能用戶聲稱,人工智能的比較能夠幫助焦慮或緊張的個人樹立信心,最終在現實世界中開始約會。

聊天機器人還爲有學習差異的人提供了一個自由表達自身的渠道,並且能讓他們在相對隱私的環境下練習交談。

另一方面,人工智能安全研究人員擔心這些模型的高級版本可能會產生相反的效果,降低人們與他人交流以及和他人建立健康關係的需求感。目前還不清楚依賴這些模型獲取陪伴的個人,將如何應對模型通過更新改變個性甚至與之“分道揚鑣”的情況,正如過去有報道的那樣。報告指出,所有這些觀察結果均需進一步測試和調查。研究人員表示,他們希望招募更多有着“對人工智能模型不同需求和期望”的測試人員,以瞭解他們的體驗在更長時間內如何變化。

這份安全報告的基調着重於謹慎以及對進一步研究的需求,似乎與 OpenAI 迅速不斷推出新產品這一更大的商業戰略相違背。這種在安全和速度之間的明顯緊張關係並不新鮮。首席執行官山姆·奧特曼(Sam Altman)去年在公司赫赫有名地處於一場企業權力鬥爭的中心,此前董事會的一些成員聲稱他“在溝通中不始終坦誠”。

奧爾特曼最終在那場小衝突中勝出,並最終組建了一個新的安全團隊,由他親自領導。據報道,該公司還解散了一個安全團隊,該團隊完全專注於分析長期的人工智能風險。這一變動致使知名的 OpenAI 研究員揚·萊克辭職,他發表聲明稱,該公司的安全文化在公司“已退居次要地位,讓位於光鮮的產品”。

考慮到所有這些總體背景,很難預測在 OpenAI 中,在聊天機器人安全方面,哪些想法會佔上風。該公司是否會聽從安全團隊的建議,研究與其實用型人工智能的長期關係的影響,還是會僅僅以旨在私有化參與度和留存率的功能,把服務推廣給儘可能多的用戶。至少到目前爲止,其做法看起來是後者。