以法治防範人工智能安全風險

趙精武

今年9月9日至15日,是2024年國家網絡安全宣傳週。連日來,各地相關部門舉辦了一系列網絡安全宣傳普及活動,推動網絡安全觀念不斷深入人心。

在數字時代,數字經濟的發展離不開信息技術創新的驅動,也離不開網絡安全的保障。事實上,網絡安全不單純是技術維度的安全可靠,而是國家安全的重要組成部分。當前,網絡安全已逐漸成爲全球各國政治博弈、經濟競爭的“新戰場”。網絡安全的有效保障需要技術、法律、市場等多個治理工具共同發揮作用,進而形成貫穿各個環節的網絡安全治理體系。

我國一直高度重視以法治護航網絡安全。截至目前,我國已經頒佈了網絡安全法、數據安全法、個人信息保護法等法律法規,出臺了《網絡安全審查辦法》《雲計算服務安全評估辦法》等一系列政策文件,網絡安全政策法規體系已基本建立。同時,我國還針對網絡勒索攻擊、網絡安全漏洞等各類安全風險設置了專門的配套治理機制,如數據分級分類治理、網絡安全風險評估機制等。然而,隨着人工智能技術的不斷髮展,新型的網絡安全風險也在持續產生,爲此我國立法機構和監管部門開始重視並着手應對相關安全風險。如制定《生成式人工智能服務管理暫行辦法》,針對研發者、服務提供者設置了數據標註管理義務、安全評估與算法備案義務、生成內容審覈義務等安全主體責任。

我們不能簡單地將人工智能安全劃歸爲應用程序安全或其他具體的技術性安全問題,而應以整體性視角理解這類安全在網絡安全治理中的功能定位。因爲隨着人工智能技術應用的普及,人工智能將逐漸成爲支撐政治、經濟、科技等各個領域的重要基礎技術,其安全性也將與國家安全、經濟穩定以及公民人身財產安全密切相關。

縱覽產業發展現狀,人工智能安全風險主要表現爲三類:一是犯罪工具風險,即將人工智能技術作爲傳統犯罪升級的技術工具,目前實踐中已經出現了利用人工智能技術實施電信網絡詐騙的案件。特別是深度僞造技術一旦被濫用,會產生“合成淫穢圖片”“生成網絡謠言信息”等風險。二是信息系統安全風險,即人工智能信息系統受外部網絡攻擊、內部員工違規操作等因素影響,進而產生用戶個人信息泄露、信息系統宕機、自動駕駛汽車操作失靈等安全風險。三是倫理風險,即人工智能產品或服務在研發、設計、應用等階段未能進行必要的科技倫理評估,導致其產生基於性別、年齡、疾病等敏感因素的社會歧視問題。面對人工智能安全風險的新特點、新問題,研發者、服務提供者、監管部門、用戶等各類主體應當積極參與到人工智能安全治理活動中來。9月9日,全國網絡安全標準化技術委員會正式發佈《人工智能安全治理框架》1.0版,旨在推動各方就人工智能安全治理達成共識,促進人工智能安全有序發展。

整體而言,人工智能安全治理是一項長期性、綜合性的社會治理活動,除了需要多元主體協同共治外,還需要充分利用各類治理機制全方位預防和控制相關安全風險。在法律層面,研發者、服務提供者應當自覺履行法定的安全保障義務,採取必要的技術措施和內部管理制度確保信息系統安全和信息服務的穩定持續提供。在技術層面,研發者、服務提供者應當在研發環節全面評估潛在的安全風險並設置相應的應對方案,同時根據網絡安全態勢的變化,及時升級安全技術措施。在市場層面,保險機構可與研發者、服務提供者共同推出專門面向人工智能安全的保險產品,以此分散不可預見、不可控制的人工智能安全風險。

網絡安全無小事。人工智能安全等新型風險與網絡社會高度關聯,更應當採取綜合性的防護措施。無論是監管機構,還是企業、公民,都應當樹立正確的網絡安全觀,用辯證發展的眼光看待網絡安全。因爲網絡安全治理從來都不是社會發展的“額外負擔”,只有確保網絡安全,才能夠有效保障經濟社會持續穩定發展。

(作者系北京航空航天大學法學院副教授,北京航空航天大學網絡空間國際治理研究基地副主任)

(法治日報)