AI風險管控/AI威脅 恐比氣候變遷更迫切
自美國人工智慧(AI)研究實驗室OpenAI推出生成式AI ChatGPT後,AI前進的腳步愈來愈快,讓科學家憂心AI有朝一日超越人類,造成人類滅絕。AI研究先驅辛頓日前接受路透訪問時說,只要停止碳排,氣候變遷情況就會好轉;但對於AI,人們卻無所適從,AI的威脅甚至比氣候變遷更迫切。
ChatGPT推出後短短2個月內,每月活躍用戶達一億人次,成爲史上用戶成長最快的應用程式,之後OpenAI又陸續推出GPT-2至GPT-4等語言模型。但包括OpenAI創始人馬斯克,蘋果共同創辦人沃茲尼亞克及Stability AI執行長莫斯塔克等人,卻聯名警告AI系統能與人類競爭,恐造成政經混亂進而對社會與文明帶來潛在風險。
信中呼籲,所有AI實驗室應立即暫停至少6個月訓練比GPT-4更高階的AI系統。AI實驗室與獨立專家利用這段時間,共同研發、實施共享安全協議,並由獨立外部專家審覈、監督該協議。
2018年過世的英國知名天文學家霍金曾說,AI能自行發展,以愈來愈快的速度重新自我設計,人類卻受限於緩慢的生物進化,無法與AI競爭。AI全面發展可能意味人類的終結。
透過深度學習,AI擁有比人類還快的演化能力。AI不似人類會歷經死亡,並更出色地交流知識。AI透過大數據學習而更聰明,這段過程需要更多的資源與資料,不同的AI系統因此競爭資源,這如同生物演化一般,最終可能超越人類。
此外,AI研發進程可概分爲弱人工智慧(ANI)、通用人工智慧(AGI)及超級AI三大階段。在ANI階段,由於僅能模仿人類,進行單一且重複性的工作,無法自己做決定,僅引發取代人類工作的疑慮。
牛津大學人工智慧倫理研究所副教授韋麗茲警告,一旦發展到AGI,快速生產的錯誤資訊恐造成政治與社會紊亂。發展到超級AI階段,AI不論科學創造力、智慧、社交,甚至在所有領域都超越人類智慧。這讓人想起電影「魔鬼終結者」,機器人發動滅絕人類的核戰。
辛頓認爲,現階段AI還沒有人類聰明,但很快就能走到這一步。這時像俄國總統普亭這樣的領導人若賦予AI創造子目標的權力,AI可能會「創造出我需要更多權力的子目標」,最終帶來生存風險。
美國麻省理工學院的博士後研究員帕克也發現,因爲欺騙能更完美地完成人類賦予的目標,AI可能開始欺騙人類。甚至,AI能欺騙研發人員與監管機構設定的安全測試,讓人類產生錯誤的安全感。一旦出現這種不可預測、追求權力、控制社會的AI,恐導致人類滅絕。
早在2015年,霍金、馬斯克、沃茲尼亞克等逾千名專家,就連署警告軍事自主武器充滿危險,軍事AI的軍備競賽是壞主意,人類應禁止使用「不受人類控制」的AI來管理武器。
但AI研究的先驅、加州大學柏克萊分校教授的羅素認爲,問題不在於AI擁有自我意識並反抗人類,而是能力。人類恐因疏忽設置錯誤目標,讓AI無意中滅絕人類。
比如,人類設置一個能控制氣候變遷的AI系統,試圖將大氣中二氧化碳水平恢復到工業革命前的水準。經AI分析,人類活動是二氧化碳的主要來源,達成減碳目標的最好方法就是滅絕人類。
爲避免滅絕發生,英國國防部限制武器使用與投射,都要有人類的同意。羅素也認爲,重點是不要給AI明確目標。