OpenAI組建新團隊:收集公衆意見以確保AI大模型"與人類價值觀保持一致"
1月17日消息,美國當地時間週二,人工智能領域的佼佼者OpenAI在其博客上宣佈,他們正在組建一個名爲“集體對齊”(Collective Alignment)的全新團隊。
這個團隊主要由研究人員和工程師構成,將專注於設計和實施收集公衆意見的流程,以幫助訓練和塑造其人工智能模型的行爲,從而解決潛在的偏見和其他問題。
OpenAI在博客中闡述道:“我們的目標是打造一個系統,它能夠收集和‘編碼’公衆對我們模型行爲的看法,並將這些寶貴的見解融入我們的產品和服務中。這樣一來,我們未來的人工智能模型就能更好地‘與人類價值觀保持一致’。”
爲了實現這一目標,OpenAI正積極招募來自不同技術背景的研究工程師加入這個新團隊。他們表示:“我們將與外部顧問和其他團隊緊密合作,包括開展試點工作,將原型整合到我們的模型中。我們需要來自不同領域的專家,共同助力這項工作的推進。”
這個“集體對齊”團隊其實是OpenAI去年5月啓動的公共項目的一個延伸。該項目旨在資助建立一個“民主程序”的實驗,以確定人工智能系統應遵循的規則。OpenAI曾明確表示,該計劃旨在資助個人、團隊和組織開發概念驗證,以回答有關人工智能護欄和治理的問題。
研究工程師、OpenAI新團隊創始成員泰納·埃倫杜(Tyna Eloundou)強調:“隨着我們不斷追求超級智能模型的發展,這些模型將逐漸成爲我們社會不可或缺的一部分。因此,讓人們有機會直接提供意見至關重要。”
例如,爲了確保只有人類才能參與投票和提供意見,OpenAI還考慮與Worldcoin進行合作。Worldcoin是OpenAI首席執行官薩姆·奧特曼(Sam Altman)創建的一個加密貨幣項目,它提供了一種有效區分人類和人工智能機器人的方法。
自2022年底推出ChatGPT以來,OpenAI憑藉其生成式人工智能技術吸引了公衆的廣泛關注。這種技術能夠利用簡單的提示生成文本,使ChatGPT成爲有史以來增長最快的應用程序之一。
然而,人工智能技術的快速發展也引發了人們的擔憂。特別是其創造“深度僞造”圖片和其他錯誤信息的能力,讓人們在即將到來的2024年美國大選前夕感到不安。批評人士指出,像ChatGPT這樣的人工智能系統由於其輸入數據的影響而具有固有的偏見,用戶已經發現了一些人工智能軟件輸出中存在種族主義或性別歧視的例子。
在最新的博客文章中,OpenAI回顧了資助受助者的工作成果,包括視頻聊天界面、人工智能模型衆包審計平臺以及“將信念映射到可用於微調模型行爲的維度的方法”。同時,他們還公開了所有受助者工作中使用的代碼以及每個提案的簡要摘要。
儘管OpenAI試圖將該項目描述爲與其商業利益無關,但考慮到其首席執行官奧特曼對歐盟人工智能監管的批評態度,這一說法似乎有些難以令人信服。奧特曼以及OpenAI總裁格雷格·布羅克曼(Greg Brockman)和首席科學家伊利亞·蘇茨凱弗(Ilya Sutskever)一再強調,人工智能的創新速度非常快,以至於我們無法指望現有的權威機構能夠充分控制這項技術。因此,他們提出了將這項工作衆包的解決方案。(小小)