AI模型"繪製不出白人",谷歌CEO:完全不可接受,已連夜改進
2月28日消息,谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)週二晚間發佈了關於公司“雙子座(Gemini)”圖像生成工具爭議的內部備忘錄,他表示這款AI應用在種族問題上的不當迴應是不可接受的,並承諾將進行結構性改變以糾正此問題。
谷歌在上週暫停了其“雙子座”圖像生成工具,原因是它生成了一些令人尷尬且具有攻擊性的結果,比如在被要求創建維京人、納粹和教皇的圖像時,AI系統拒絕展示白人,可能生成女性或有色人種的圖片。
“雙子座”還在創建文本回應時產生了一些引發爭議的迴應,例如將埃隆·馬斯克(Elon Musk)對社會的影響與阿道夫·希特勒(Adolf Hitler)相提並論,使爭議進一步加劇。
這些評論引發了尖銳的批評,特別是來自保守派,他們譴責谷歌存在反白人偏見。
大多數提供類似“雙子座”這種AI工具的公司都設有防護措施,旨在減少濫用並避免偏見,尤其是基於以往的經驗教訓。例如,OpenAI等公司的圖像生成工具在生成的圖像中,主要將白人描繪在專業職位上,而將黑人描繪在符合刻板印象的角色中,這受到了批評。
皮查伊表示:“我知道其中一些迴應冒犯了我們的用戶,並展現出了偏見——明確地說,這完全不可接受,我們在這方面犯了錯。”
皮查伊還表示,公司已經在修正“雙子座”的安全措施方面取得了進展。“我們的團隊已經連夜工作,以解決這些問題。我們已經在廣泛的提示請求上看到了實質性的改善。”
美國媒體人士認爲,“雙子座”爭議事件的核心問題並非偏見,而是反映出谷歌在調整其人工智能模型時出現了技術性失誤。問題並不在於底層模型本身,而在於模型之上設置的軟件安全防護。這是每一個開發消費級AI產品的公司都面臨的挑戰——並不僅限於谷歌。
知情人士透露,谷歌內部並沒有人故意設計“雙子座”將教皇描繪成女性,或者將維京人描繪成黑人,也沒有人試圖在馬斯克和希特勒之間找到道德等同性。這是一次旨在減少偏見的嘗試,但結果卻南轅北轍。
分析認爲,儘管谷歌近年來動作有所放緩,但生成式人工智能的競爭迫使其加速了產品開發的步伐。“雙子座”的錯誤是一個可以修復的技術問題,但由此引發的聲譽問題可能不那麼容易解決。
以下是皮查伊的內部備忘錄:
我想對“雙子座”應用(原名巴德)中出現的問題性文本和圖像回答發表看法。我知道其中一些迴應冒犯了我們的用戶,並展現出了偏見——明確地說,這完全不可接受,我們在這方面犯了錯。
我們的團隊已經連夜工作,以解決這些問題。我們已經在廣泛的提示請求上看到了實質性的改善。目前沒有任何人工智能能做到完美,特別是在行業發展的早期階段,但我們知道對我們的期望很高,我們將不遺餘力地繼續努力,無論需要多久。我們將對發生的情況進行回顧,並確保在廣泛範圍內糾正這一問題。
我們的使命是組織信息、使之普遍可獲取且實用,這個使命至關重要。我們一直追求在我們的產品中爲用戶提供有用、準確、無偏見的信息。這是人們信賴我們產品的原因。這必須是我們所有產品的處理方式,包括我們即將推出的人工智能產品。
我們將採取一系列明確的措施,包括結構調整、更新產品指導原則、改進上市流程、加強評估與紅隊測試,以及提出技術建議。我們正在全面審查所有這些方面,並將進行必要的調整。
即便我們從這次的失誤中吸取教訓,我們也應該基於過去幾周我們在人工智能領域做出的產品和技術公告繼續前進。這包括我們在底層模型上取得的一些基礎性進展,比如我們100萬長文本的突破和我們的開放模型,這些都得到了積極的反響。
我們清楚創造出億萬用戶和企業喜愛與廣泛使用的卓越產品需要什麼,並且藉助我們的基礎設施和研究專長,我們爲人工智能的浪潮提供了強大的跳板。讓我們集中精力做最重要的事情:開發出值得用戶信賴的有益產品。
(易句)
(本文由AI翻譯,本站編輯負責校對)