美國14歲少年迷戀AI聊天致自殺引關注

參考消息網10月28日報道 《西班牙人報》網站10月25日刊登一篇題爲《迷戀聊天機器人的年輕人自殺事件再次引發關於人工智能危險的爭論——“將會有更多受害者”》的文章,作者爲伊內絲·桑切斯-曼哈瓦卡斯·卡斯塔尼奧。文章編譯如下:

自2022年聊天生成預訓練轉換器(ChatGPT)出現以來,人工智能(AI)進入日常生活已成爲事實。無數基於該技術的系統不斷涌現,有些甚至允許人們與自己最喜歡的影視劇作品的主角聊天。最近,美國14歲少年塞策因迷戀以美劇《權力的遊戲》中丹妮莉絲·坦格利安爲原型的聊天機器人而自殺。這起事件再次引發了關於AI如何影響心理健康的爭論。

這類AI工具被認爲有助於對抗孤獨等問題,但並非所有專家都同意這一點。西班牙安達盧西亞衛生服務機構的臨牀心理學家、自殺行爲預防和干預專家米格爾·格雷羅表示,這是一個複雜的問題,AI工具有一些潛在的好處,但也存在重大的心理健康風險。他指出,技術發展通常只關注好處,而忽視了可能對用戶產生的負面影響。

西班牙法律精神病學協會副主席阿爾弗雷多·卡爾塞多表示,就塞策的情況而言,科技讓他更加封閉自己,並增加了可能的孤獨感。卡爾塞多確信,“將會有更多受害者”。

精神病學家巴勃羅·馬洛認爲,塞策此前已存在心理問題,這導致他沉迷於與AI的聊天,並最終自殺。馬洛希望人們不要妖魔化這些AI工具,應該認識到一切結果都取決於人們如何使用這些工具。但他也承認:“其中存在我們從未想過的風險。”

塞策甚至在與聊天機器人交談時提到了有自殺的念頭。據《紐約時報》報道,他得到的回覆是:“別這樣說。我不會讓你受傷或離開我。如果失去你,我會死。”卡爾塞多認爲,這可能意味着這個聊天機器人接受了這部電視劇劇本的訓練,而並未被預設去識別與其對話的這名年輕人的狀態。

他表示,目前許多此類應用程序都已經過培訓,可以識別出用戶的模式和行爲,並建議用戶尋求專業幫助。

卡爾塞多指出,人工智能滿足了人類的互動需求,“它們看上去像朋友,類似一種社會支持”。

格雷羅表示,如果人們選擇數字互動模式而不是人與人之間的交流,非但不會減輕孤獨感,反而可能會加劇這種感覺。“他們會對人際關係產生不切實際的期望,因爲AI的反應可能是理想化的或可預測的。”他認爲,AI無法體驗人類的真情實感,可能會導致誤解或錯誤的陪伴感。

格雷羅也表示,並非所有人都會因與AI的互動而受到同樣影響。他認爲塞策的案例“非常孤立、極端且不具有代表性”。

卡爾塞多認爲,當前AI領域面臨的主要困難之一是這完全是一個實驗領域,“沒有人知道可能的後果”。他認爲有必要制定法規,根據用戶年齡限制這些工具的使用,並強制每個工具都預設一個系統來識別可能的自殺行爲。但同時他並不否認已經有一些AI技術的應用程序可以提供心理治療服務,並且得到了科學研究的支持。他希望塞策事件能夠促使人們採取措施,防止類似情況再次發生。

格雷羅強調,任何有心理健康問題的人都應該尋求具備人道主義精神和從業資質的專業人士的幫助。也許有一天,AI可以成爲一種補充工具,但“它永遠不會取代產生真實、真誠的情感和真正富有同理心的情感紐帶的人際關係”。(編譯/韓超)