100多位全球知名人士共同呼籲全球採取行動應對AI和其他生存威脅
來自商界、政界和其他領域的100多位全球知名人士簽署了一封公開信,敦促全球領導人應對當前和未來的生存威脅,包括人工智能、氣候變化、大流行病和核戰爭。週四發表的這封信來自南非前總統納爾遜-曼德拉成立的非政府組織"長老會"(The Elders)和非營利組織"生命未來研究所"(Future of Life Institute),後者旨在引導變革性技術造福生命,避免大規模風險。
這封信的簽名者包括億萬富翁維珍集團創始人理查德-布蘭森、前聯合國秘書長潘基文和查爾斯-奧本海默(羅伯特-奧本海默的孫子)。此外,多位前總統和總理、活動家、首席執行官、創始人和教授也在信上簽名。
"我們的世界正處於嚴重危險之中,"信的開頭這樣寫道。"我們面臨着一系列危及全人類的威脅。我們的領導人沒有以必要的智慧和緊迫感做出反應"。
信中舉例說明了當前的威脅包括氣候的變化、大流行病以及使用核武器的戰爭。信中指出,更糟糕的情況可能會出現,尤其是我們還不知道與無人管理的人工智能相關的新威脅會有多大。
"長遠型領導力意味着要表現出解決棘手問題的決心,而不僅僅是管理這些問題;要表現出基於科學證據和理性做出決策的智慧;要表現出傾聽所有受影響者聲音的謙遜"。
信中呼籲各國政府就某些項目達成一致,如商定如何爲從化石燃料向清潔能源過渡提供資金,重啓軍備控制談判以降低核戰爭風險,以及制定一項公平的大流行病條約。在人工智能方面,我們的建議是建立必要的治理機制,使這項技術成爲一種有益的力量,而不是失控的風險。
麻省理工學院宇宙學家馬克斯-泰格馬克(Max Tegmark)與 Skype 聯合創始人雅安-塔林(Jaan Tallinn)共同成立了"未來生命研究所"(Future of Life Institute),他告訴CNBC,"長老會"及其組織並不認爲人工智能是"邪惡的",但擔心如果它在錯誤的人手中迅速發展,可能會被用作破壞性工具。
未來生活研究所去年也發表了一封公開信,呼籲暫停先進人工智能開發六個月。這封信有 1100 人簽名,其中包括蘋果公司聯合創始人史蒂夫-沃茲尼亞克(Steve Wozniak)、埃隆-馬斯克(Elon Musk)和 Pinterest 聯合創始人埃文-夏普(Evan Sharp)。這封信並沒有達到預期效果;人工智能公司不僅沒有放慢開發速度,許多公司實際上還加快了開發高級人工智能的步伐。
將人工智能與核戰爭相提並論並不新鮮。去年 5 月,專家和首席執行官們就曾警告過這項技術帶來的滅絕風險。甚至連 ChatGPT 的創造者 OpenAI 也說,比人類更聰明的人工智能可能會導致人類滅絕。