人工智能能否成功帶我們走出陰謀論之阱?

新的研究 在《科學》雜誌上發表 顯示,對於一些相信陰謀論的人來說,與人工智能(AI)聊天機器人進行基於事實的對話可以“將他們從兔子洞拉出”。更妙的是,這似乎能讓他們至少兩個月不再陷入其中。

這項由麻省理工學院的托馬斯·科斯特洛及其同事進行的研究,爲一個頗具挑戰性的社會問題帶來了希望,即對陰謀論的信仰問題。

有些陰謀論相對無害,比如 認爲芬蘭不存在(這倒沒什麼,直到你碰到一個芬蘭人)。然而,其他的理論則降低了對 公共機構 以及 科學 的信任度。

當陰謀論說服人們不 接種疫苗 或不 採取行動應對氣候變化 時,這就成了一個問題。在最極端的情況下,對陰謀論的信仰與 人員 的 死亡 相關。

儘管陰謀論有負面影響,但它們被證明具有很強的“黏性”。一旦人們相信了一個陰謀論,改變他們的想法就很難。

造成這種情況的原因很複雜。陰謀論者的信仰 和社羣有關聯 ,而且陰謀論者 常常 進行 廣泛的研究 來得出他們的立場。

當一個人不再信任科學或其社羣之外的任何人時,就很難改變他們的信仰。

生成式人工智能在公共領域的興起,讓人們更加擔憂會相信不實之事。人工智能使得創造可信的虛假內容變得極爲容易。

即使是善意使用,人工智能系統也可能弄錯事實。(ChatGPT 和其他聊天機器人甚至會警告用戶,它們在某些主題上可能是錯誤的。)

人工智能系統還存在廣泛的偏見,這意味着它們可能會傳播對某些人羣的負面看法。

和一個已知會製造假新聞的系統聊天,能讓一些人放棄陰謀論,並且這種改變似乎還能持久,這相當令人驚訝。

然而,這項新研究給我們留下了一個喜憂參半的問題。

我們確定了對陰謀論者的信念能產生一定影響的東西,這很棒!但如果人工智能聊天機器人善於說服人們擺脫棘手的、反科學的信念,那對真正的信念意味着什麼呢?

讓我們更詳細地探究這項新研究。研究人員很想知道,事實論據能否用於勸說人們摒棄陰謀論者的信念。

這項研究在兩項研究中動用了 2000 多名參與者,所有人在講述了自己所相信的一個陰謀論之後,都跟一個人工智能聊天機器人聊了天。所有參與者都被告知他們正在與一個人工智能聊天機器人交談。

“治療”組的人員(佔所有參與者的 60%)和一個根據他們特定的陰謀論以及他們相信此陰謀論的原因而個性化設定的聊天機器人交談了。這個聊天機器人試圖在三輪對話裡,憑藉事實論據去說服這些參與者,讓他們明白自己的信念是錯的(參與者和聊天機器人各發言一次算一輪)。另一半參與者與聊天機器人進行了一般性的討論。

研究人員發現,治療組中約 20%的參與者在討論過後,對陰謀論的信念有所減輕。當研究人員兩個月後跟參與者覈實情況時,這些人裡的大多數依舊對陰謀論的信念有所減輕。科學家們甚至檢查了人工智能聊天機器人準不準確,它們(大多)是準的。

我們可以看到,至少對於一些人來說,與聊天機器人進行三輪對話可以說服他們摒棄陰謀論。

聊天機器人在應對解決錯誤信念方面的兩個挑戰時,確實帶來了一些希望。

因爲它們是計算機,人們不會認爲它們有“議程”,這使得它們所說的話更具可信度(尤其是對於那些對公共機構喪失信心的人而言)。

聊天機器人還能夠組織論點,這比單純陳述事實要好。簡單地背誦事實對於錯誤的信念效果甚微。

不過,聊天機器人並非包治百病的靈丹妙藥。這項研究表明,對於那些沒有強烈個人理由去相信陰謀論的人,它們更能發揮作用,這意味着它們或許對那些將陰謀視作社區的人難有幫助。

這項研究展示了聊天機器人的說服力有多大。當它們做好準備去說服人們相信事實時,這很棒,可要是並非如此呢?

聊天機器人傳播錯誤信息或陰謀論的一個主要方式是,當它們的基礎數據有誤或存在偏差時:聊天機器人會體現出這一點。

有些聊天機器人被設計故意呈現偏見或增加或限制透明度。你甚至能夠和被定製爲主張地球是平的的 ChatGPT 版本進行聊天。

第二種更令人擔憂的可能性在於,當聊天機器人對有偏見的提示(搜索者可能沒有意識到這些提示是有偏見的)做出迴應時,它們可能致使錯誤信息(包括陰謀論之類的信仰)一直存在。

我們已經知道,人們不太擅長覈實事實,當他們藉助搜索引擎來覈實的時候,這些搜索引擎會對他們(不知不覺有偏見的)搜索詞做出迴應,增強對錯誤信息的相信程度。聊天機器人大概也是這樣。

最終,聊天機器人是一種工具。它們可能有助於揭穿陰謀論——但就像任何工具一樣,工具製造者和使用者的技能和意圖很重要。陰謀論由人而起,也將因人而終。