MIT研究發現:在AI誘導下,人類會產生虛假記憶

最近,美國麻省理工學院(MIT)一個研究團隊發佈研究結果稱,人工智能將對人類虛假記憶產生影響,即人們會產生沒有發生或偏離實際事件的回憶。

該研究通過在人與人工智能的互動過程中,提出暗示性問題來產生虛假記憶的誘導,從而模擬犯罪證人訪談。測試分爲四種條件:控制、基於調查、預先編寫的聊天機器人和使用大型語言模型(LLM)的生成式AI聊天機器人。

200位參與者觀看了一段犯罪視頻,然後與指定的人工智能面試官或調查員進行互動,回答問題包括五個誤導性問題。結果顯示,使用生成式AI聊天機器人更容易讓參與者形成錯誤記憶,相比控制條件多出3倍,比調查條件多1.7倍。其中,36.4%的測試者在與生成式AI聊天機器人的互動中被誤導。

一週後,由生成式AI聊天機器人誘導的錯誤記憶數量保持不變。同時,對這些虛假記憶仍然高於控制條件。研究人員經過研究發現:對聊天機器人不太熟悉但更熟悉人工智能技術的參與者,以及對犯罪調查更感興趣的參與者,更容易產生錯誤記憶。這些發現強調了在敏感情況下使用先進人工智能的潛在風險,如警察審訊中對倫理考慮的必要性。

研究通過拆解人工智能誘導虛假記憶產生的三個階段來尋找原因。例如,預設一個只涉及一把刀的犯罪現場,而人工智能系統通過詢問,一把不存在的槍來引入錯誤信息,讓目擊者對現場的槍產生了錯誤的記憶。由此可見,人工智能引導的提問可以扭曲人類的記憶,並損害目擊者證詞的可靠性,從而凸顯了人工智能對人類記憶和感知影響的倫理問題。與其他干預措施相比,生成式AI聊天機器人更容易誘導人,並且產生更多錯誤記憶。而且,由生成式聊天機器人所引發的虛假記憶,在一週後保持不變。

事實上,有關人工智能欺騙和誘導人的研究並不少見。今年5月,來自MIT、澳大利亞天主教大學(ACU),以及Center for AI Safety的最新研究發佈《Patterns》雜誌一篇綜述文章中,描述了AI系統欺騙性的風險,並呼籲全世界一起解決這一問題。

論文第一作者、MIT博士後Peter S. Park認爲:“人工智能欺騙行爲的產生,是因爲基於‘欺騙的策略’,被證明是在特定人工智能訓練任務中,表現出的最佳方式。欺騙有助於它們實現目標”。

今年6月,德國的科學家Thilo Hagendorff對LLM展開一系列實驗,發現LLM(大模型)已經涌現出“欺騙能力”,它們可以理解並誘導欺騙策。而且,相比前幾年的LLM,更先進的GPT-4、ChatGPT等模型在欺騙任務中的表現顯著提升。

正如圖靈獎得主傑弗裡·辛頓(Geoffrey Hinton)教授多次的警告:“如果不採取行動,人類可能會對更高級的智能AI失去控制。”