微軟修復漏洞,旗下AI不能再生成名人假裸照
1月30日消息,美國時間週一,微軟爲其人工智能文本轉圖像生成工具Designer引入了更多保護措施,禁止人們用它來製作名人的非自願假照片。據悉,上週在X上瘋傳的泰勒·斯威夫特(Taylor Swift)人工智能生成裸照來自4chan和Telegram頻道,迫使微軟做出了改變。
微軟發言人證實了這一事件,並表示:“我們對此已展開調查,並正採取相應措施解決問題。我們的行爲準則明確禁止使用我們的工具創建成人或未經同意的私密內容。任何違反我們政策的行爲,尤其是反覆嘗試製作這類內容,都將導致用戶無法繼續使用我們的服務。我們有一支龐大的團隊,致力於根據我們負責任的人工智能原則開發各種安全系統,包括內容過濾、操作監控和濫用檢測等,以減少系統的濫用可能性,併爲用戶創造一個更安全的環境。”
微軟強調,一項正在進行的調查無法證實X上斯威夫特的假裸照是用Designer製作的,但該公司將繼續加強其文本過濾提示,並解決濫用其服務的問題。上週五,微軟首席執行官薩蒂亞·納德拉(Satya Nadella)在接受採訪時表示,“我們有責任”爲人工智能工具增加更多“護欄”,以防止它們製作有害內容。上週末,X開始徹底屏蔽對“泰勒·斯威夫特”的搜索。
納德拉說:“這關乎全球社會在規範上的融合。我們可以做到這一點,尤其是在法律、執法部門和科技平臺的共同努力下。我相信,我們可以管理的範圍遠遠超過我們目前的認知。”
經過404 Media等媒體測試以及4chan和Telegram上的消息顯示,用戶利用漏洞生成圖像的操作已不再有效。
在斯威夫特人工智能生成圖片上週引發關注之前,Designer已經阻止用戶生成帶有“泰勒·斯威夫特裸體”等文字提示的圖片,但Telegram和4chan上的用戶發現,他們可以通過稍微拼錯名人的名字,以及描述不使用任何性術語但會導致性暗示的圖片來繞過這些保護。
微軟修復漏洞後,引發了網友熱議。根據404 Media的報道,Telegram上的一名用戶在頻道中寫道:“我認爲微軟的Designer已經被打補丁了。”
另一位用戶迴應道:“好像它再也無法生成名人的照片了。即使是搜索克洛伊·莫瑞茲(Chloe Moretz),也只會生成普通的金髮女孩。我嘗試更換服務器和賬號,但得到的結果都是一樣的。”
還有用戶表示:“我覺得它現在已經完蛋了。Ariana,、Kylie Jenner,、Lisa、Zendaya這樣的名人,現在都只展示出與她們長相或種族相似的普通女孩照片。”
404 Media並未公佈Telegram頻道的名稱,因爲Telegram並未刪除該頻道,而且通常不會從其平臺上刪除太多有害內容。該頻道擁有數萬名成員,但404 Media並未公佈特定用戶的身份。分享Telegram頻道的名稱只會吸引更多人關注它,無益於爲有害內容的目標提供任何追索權。
儘管Telegram頻道仍在分享人工智能生成的成人圖片,其中一些似乎是用其他人工智能工具生成的,還有一些是從其他網站上提取的。雖然該頻道的重點是利用微軟的Designer這一免費且易於使用的工具,但有許多其他方法可以在網上製作這種有害的內容。例如,目前任何人都可以下載名人模型並在自己的電腦上本地運行,以生成有害內容。在4chan上,一些用戶聲稱他們已經發現了必應和Designer的新漏洞。
Telegram頻道上的一位用戶表示:“我堅信,如果這裡被關閉了,我們會找到其他地方來製作人工智能內容。”(小小)