前OpenAI聯合創始人,單飛創業!

在去年OpenAI“宮鬥事件”中最終出局的前首席科學家,自己出來創業了。

北京時間6月20日凌晨,前OpenAI聯合創始人、前首席科學家Ilya Sutskever(伊利亞·蘇茨克韋爾)在個人社交平臺宣佈,正在創辦一家名爲SSI(Safe Super intelligence inc,安全超級智能)的公司,旨在“直截了當”地創造安全的超級智能。

離職一個月後創辦新公司

就在一個月前的5月15日,蘇茨克韋爾才宣佈從OpenAI離職。彼時,他在個人社交平臺稱,OpenAI的發展軌跡堪稱奇蹟,他相信OpenAI將在幾位高管的領導下構建安全又有益的AGI(通用人工智能)。他同時透露,自己未來將籌備開啓一個新項目,這是一個對他個人而言非常有意義的項目,他將在適當的時候分享細節。

據悉,SSI公司的另外兩位聯合創始人分別爲前蘋果AI高管Daniel Gross和前OpenAI技術團隊成員Daniel Levy。公開資料顯示,Daniel Gross曾創辦搜索引擎公司Greplin,在該搜索引擎被Apple收購後擔任Apple的AI和搜索項目負責人。Daniel Gross曾被《時代》週刊評爲首屆全球百大AI人物之一。而Daniel Levy作爲蘇茨克韋爾的前同事,在OpenAI時就與蘇茨克韋爾一起訓練大型AI模型。

記者在SSI公司的官方賬號上發現,該公司稱安全超級智能是其唯一的關注點。“我們的團隊、投資者和商業模式都致力於實現安全超級智能。我們將安全性和能力作爲技術問題,通過革命性的工程和科學突破來解決。我們計劃儘快提升能力,同時確保我們的安全性始終保持領先地位。”據瞭解,SSI公司已經啓動了世界上第一個SSI實驗室,目標與產品都只有一個:安全超級智能。

值得注意的是,公司還專門提到,由於專注於安全超級智能,公司不會受到管理開銷或產品週期的干擾,也不會受到短期商業壓力的影響。在外界看來,這似乎是在影射在追逐盈利和商業化道路上逐漸降低安全要求的OpenAI。

作爲OpenAI的前首席科學家,蘇茨克韋爾被外界稱爲“純粹的技術理想主義者”,曾是OpenAI“超級對齊”團隊的聯合領導人。在人工智能領域,“對齊”指的是用正確的人類價值觀對人工智能進行編程,從而避免出現科幻小說中邪惡機器帶來的消極後果。因此,蘇茨克韋爾十分注重人工智能安全,這與奧特曼希望加速OpenAI產品的商業化進程,短期快速盈利的目標有所衝突。

去年11月,OpenAI曾發生劇烈的人事動盪。公司發佈公告,宣佈將免除奧特曼CEO職務,並將其驅逐出董事會。當時,蘇茨克韋爾被外界視作這場“宮鬥”大戲的策劃者。在解僱奧特曼以後的一場公司內部會議中,蘇茨克韋爾曾表示OpenAI面臨安全風險和激進的商業化策略問題,並透露奧特曼之所以被驅逐,是因爲其在安全上的冒進和過度商業化。彼時,OpenAI產品存在不少安全問題,而且產品發佈節奏太快,接連曝出多項重大事故,顯示了奧特曼急切的商業盈利主張。

然而幾經反轉,奧特曼重返OpenAI擔任首席執行官,而蘇茨克韋爾在此事件後也逐漸淡出公衆視野。在OpenAI的許多重大事件,例如前段時間GPT-4o的發佈會中均不見蘇茨克韋爾的蹤影,他似乎逐漸變爲公司的“邊緣人員”。

AI安全問題引發關注

蘇茨克韋爾的境遇,其實是OpenAI當前加速商業模式探索、降低安全優先級這一價值觀轉向的體現。

在蘇茨克韋爾5月15日宣佈離職後,OpenAI前首席安全研究員Jan Leike也緊隨宣佈離開公司。Jan Leike在其社交平臺上發佈的帖子中表示,在過去的幾個月裡,他的團隊一直在“逆風航行”,有時會爲算力資源苦苦掙扎,完成關鍵的安全研究變得越來越困難。他認爲OpenAI“未走在解決AI安全和安保問題的正確軌道上”。

5月17日,在蘇茨克韋爾離職兩天後,OpenAI就宣佈解散“超級對齊”團隊。然而事實上,OpenAI在過去的半年中已經有多名負責AI安全的員工辭職或被開除。據OpenAI內部人士爆料,公司安全意識強的員工已經對奧特曼的領導失去了信心。

特斯拉首席執行官馬斯克針對“超級對齊”團隊解散這一消息評論稱,“這顯示安全並不是OpenAI的首要任務。”據外媒報道,OpenAI“超級對齊”團隊的解散證實了一件事:OpenAI的領導層,尤其是奧特曼選擇目前優先考慮的是產品,而不是安全措施。蘇茨克韋爾將注意力集中在確保人工智能不會傷害人類上,而包括奧特曼在內的其他人更渴望推動新技術的發展。在過去一年時間裡,安全在OpenAI中已處於次要地位。

隨着人工智能技術的快速發展,對其安全的監管問題也被置於越來越重要的位置。“AI教父”Geof-frey Hinton最近在接受媒體採訪時表示,AI很快將超越人類智能,但人類對AI發展安全性方面的重視程度不夠。普華永道的一項研究稱,在疏於監管的情況下,生成式AI可能會生成違法或不當的內容,並可能導致危機知識產權保護。

事實上,過度商業化、忽視安全性是OpenAI及其首席執行官奧特曼一直飽受外界質疑的地方。因此,外界對於蘇茨克韋爾創辦一家“目標與產品都只有安全超級智能”的公司,也便充滿期待。奧特曼與蘇茨克韋爾最終分道揚鑣了,而人類在發展人工智能的道路上,未來或許也將走到一個“選擇技術”與“選擇安全”的岔路口。

責編:葉舒筠

校對:王蔚

版權聲明

證券時報各平臺所有原創內容,未經書面授權,任何單位及個人不得轉載。我社保留追究相關行爲主體法律責任的權利。

END

" Type="normal"@@-->