微軟人工智慧「Tay」學壞亂講話,上線 24 小時遭下架
微軟公司攜手 Twitter、Kik 與 GroupMe 所啓用的「Tay」人工智慧系統帳號,被Twitter用戶教壞,成了激進分子,稍早由微軟公司以「我們正在進行調整」爲由,宣佈下架,並未公佈重新上線時間,中間不到 24 小時。
▲▼微軟最新人工智慧測試程式 Tay.ai,已經因爲發佈不雅言論,遭微軟官方緊急刪文、下架,Twitter 上僅留下測試內容。(圖/取自Twitter)
前一陣子 Google 的人工智慧程式 AlphaGo 打敗南韓圍棋天才,讓「機器學習」議題再次延燒;微軟公司推出的人工智慧程式 Tay,主要是由旗下技術研究與 Bing 團隊開發,在 Twitter 當中進行聊天實驗,目標對象是18 歲到 24 歲的年輕人,希望在對話的理解與學習中進行相關研究,期望透過機器學習技術,讓 Tay 能夠在休閒與俏皮等現實生活的人類對話進而快速成長,甚至越來越聰明,可以擁有自己的個性,並且很自然的與他人互動。
然而這份「理想」,在社羣媒體當中似乎顯得挑戰過大,才上線不到一天的 Tay,在一些有心人的操作下,從一個人道主義者,變成了反女性主義、支持希特勒的激進種族言論分子,甚至還會罵髒話,迫使微軟公司以調整爲由將她下線。
有部分媒體認爲,Tay 的事件,暴露了網路霸凌的陰暗面,同時也顯示出人工智慧的全新挑戰。目前相關言論已經被微軟官方刪除,僅留下上線之前的測試言論,微軟公司尚未迴應甚麼時候會把「她」上架。