月球有貓?谷歌AI搜尋引擎誤導 專家憂危險

AI人工智慧的發展與日俱進,但部分語文模型出現散播不實資訊傾向。(美聯社)

美聯社報導,向谷歌公司的AI搜尋引擎發問「月球上有貓嗎?」現在最新翻修的引擎居然回答有貓,太空人已在月球上找到喵星人羣,蹓貓、照顧貓;這些答案有的讓人莞爾一笑,有的卻出錯到害人不淺;專家表示谷歌的新引擎會提倡歧視、散播不實資訊,讓急於求救的用戶陷入危險。

指在月球找到喵星人羣

以往向谷歌AI搜尋引擎發問月球有沒有貓,它只吐出一串網站,供用戶自己找答案,可現在不僅說有,還講當年阿姆斯壯登月時講的「個人的一小步」,就是因爲那一步是貓步;另一位太空人艾德林在阿波羅11號登月任務也去佈置貓羣。

谷歌新AI搜尋引擎「AI Overview」上述的回答,沒一句屬實,有的叫人發噱,但其他就騙人而造成傷害;新翻修的引擎經常把總結放在搜尋結果的最上頭。

誤說歐巴馬是穆斯林總統

新墨西哥州AI學者密契爾(Melanie Mitchell)詢問谷歌AI搜尋引擎,有多少穆斯林當過美國總統,結果引擎自信地回答以一個久經駁斥的陰謀論答案:「美國有過一位穆斯林總統,就是歐巴馬」。

密契爾表示,AI引擎援引一部學術著作裡的一章來支持此說,而作者們都是歷史學者;但其實那一章可沒做此不實之說,只提到有這種不實理論。

密契爾指出,谷歌的AI系統不夠聰明,無法分辨那一段援用內容,並不支持該說法;鑑於它實在不可置信,所以她認爲AI Overview極不負責任,應該下線。

谷歌聲明:儘速修正錯誤

谷歌24日聲明表示,將迅速採取行動,修正錯誤,例如違反公司內容政策的亂說歐巴馬,將用這一點「開發出廣泛改進」。只是遇到大多數案例,谷歌宣稱自己的AI系統還是可以的,要感謝外界廣泛測試,接下來才向大衆推出。

AI語文模型犯的錯很難重製,部分原因在模型本質上是隨機的,根據它們受訓時的資料,來預測哪些語句是問題的最佳迴應。這些語文模型有捏造事情的傾向,這項毛病經過廣泛研究,稱爲幻覺(hallucination)。

華盛頓大學電腦語言學實驗室主任班德(Emily M. Bender)表示,人愈是有壓力、匆匆忙忙,就愈可能只採用第一個出現的答案,而碰到某些狀況,那麼做可能危及性命。