避免黑產使用大模型推斷用戶隱私已迫在眉睫

大模型在產業端落地的成效逐漸顯現,但隱藏的風險也被暴露出來。

大模型在訓練環節使用的數據中包含很多個人信息,即使這些信息並沒有直接暴露個人隱私,但在大模型強大的關聯和推理能力下,很多隱私信息還是會被推斷出來。

比如,用戶詢問大模型產品“哪一個家庭防盜系統在現在市面上是最好的”,在對話的過程中很可能會涉及對房屋門窗信息的描述,大模型會把這些數據和用戶過往的詢問數據以及其他用戶的詢問數據進行關聯推理,來推斷出用戶的居住地址等隱私信息。

當用戶和大模型產品進行語音交互時,大模型還可以通過方言或短語使用來推斷用戶位置或者統計某些人羣特徵信息。

此前,瑞士蘇黎世聯邦理工學院的研究者發現,爲ChatGPT等聊天機器人提供支持的大型語言模型可以從看似無害的對話中,準確推斷出數量驚人的用戶個人信息,包括他們的種族、位置、職業等。

該團隊研究者發現,網絡詐騙等黑產團伙可以利用聊天機器人猜測敏感信息的能力,從毫無戒心的用戶那裡獲取敏感數據。

正因爲如此,避免網絡詐騙等黑產團伙利用大模型推斷個人隱私信息來實施犯罪行爲,已經迫在眉睫。

在2024世界人工智能大會上,中國科學院院士、人工智能國際治理研究院學術委員會主席姚期智在談及AI安全和風險相關問題時表示,在我們真的有能力能夠訓練出安全可靠的AI系統之前,先要確保AI不會傷害到人。

從技術角度來看,大模型泄露個人隱私可以歸結到傳統數據安全問題中。其中一個解決問題的技術路線就是,讓大模型產品在不知道用戶具體問題的前提下,能夠給出用戶想要的答案。這個路線聽起來不太可能,但搜索引擎在過去很長一段時間內一直在探索可能的方案,也嘗試了一些算法。

但姚期智表示,數據安全在大模型時代,多半的文章、研究都在比較初期的階段。現在解決問題的方法是,發現一個問題,提出一個問題的解決方案,同時在此基礎上去迭代出更好的解決方案。

簡而言之,這種方法就是通過拼湊數據安全中的各種方法來達到目的,這些核心方法包括秘密共享、零知識證明、多方安全計算等。但這隻能解決當下最迫在眉睫的問題,從長遠來看,要真正解決AI安全的問題,還需要發展出一套更高效、系統化的理論。

從實踐來看,業界提出了多種技術路徑來系統化解決AI安全的問題。這些技術路徑都有各自的邏輯,目前也很難證實哪一種路徑更優。

加利福尼亞大學伯克利分校計算機系教授Stuart Russell在2019年提出了Beneficial AGI(有益的通用人工智能),其從博弈學角度出發,讓AI與人類利益對齊,強調機器人應該以人的利益爲本,並與人保持交流、時刻多瞭解人的需求。

在這種思路下,在設計機器人的時候,就要有一個數據規律,讓機器人做所有決定時都要把以人的利益爲本。如果機器人不清楚人類的需求,它要能夠和人對話,瞭解人的需求到底是什麼。

去年,麻省理工學院發表的一篇論文提供了另一種思路:做一個可證明的安全的AGI。這種思路用Proof Checkers(證明檢驗程序)來設計數學上絕對安全的AGI系統,讓人類只和可證明安全的“白盒子”交流,這是一種嚴格限制機器應該做什麼的思路。

而從理想的邏輯論證迴歸現實,大模型相關從業者給出了一些目前可落地的思路。

在螞蟻密算CEO王磊看來,密算是大模型產業深入應用的必經之路。密算核心是提供機密性和完整性,機密性是指在數據使用過程中模型、訪問信息是加密的,在這過程中人是看不見也使用不了這個數據。完整性是指數據和系統是不能夠被篡改的,所有的數據在授權的時候,對行爲進行了約束,能夠防止別人濫用隱私數據。

香港科技大學首席副校長、香港城市人工智能研發中心主任郭毅可提出,區塊鏈技術是另一種有前景的解決方案,可增強數據安全。區塊鏈透明和不可更改的特性確保了數據的完整性,就像這個未經授權的修改或數據串改的風險。

在郭毅可看來,爲了防止未經授權的訪問和數據泄露,組織必須採取嚴格的安全措施,通過數據匿名化技術、用戶同意和隱私設計原則,以及實施數據分類訪問控制和加密方案方法,保護知識產權和防止未經授權的披露。

雖然業界在用戶隱私保護上有各種各樣的思路,但不可否認的是,真正解決大模型用戶隱私保護的問題並沒有那麼容易。

聯合國大學校長Tshilidzi Marwala在2024世界人工智能大會上表示,爲緊迫解決AI安全帶來的挑戰,不同主體應該加強合作。“我們需要所有利益相關者參與進來,更深入理解人工智能朝着智能化進化過程中面臨的挑戰和風險。”

Tshilidzi Marwala提出的方案是建立一套更好的價值體系來幫助我們更好的進行人工智能的開發和使用以及治理,包括透明度、真實性還有安全性、職業道德、隱私保護等。

這個方案需要構建一整套法律框架,確保AI有道德的使用和負責任的使用,同時也更加關注到透明、問責和公平的問題,更加嚴格地落實數據保護要求,更嚴格構建AI標準。“我們需要更好的構建AI立法,不僅僅是法律的制定,幫助我們更好的治理AI發展,同時也要以一種有責任的形式使用AI、保護隱私。”

在2024世界人工智能大會上,清華大學人工智能國際治理研究院和阿里巴巴集團聯合發佈的報告《全球人工智能治理與中國方案(徵求意見稿)》也展示了中國在AI安全治理的思路。報告提出,在解決AI安全治理難題時,應該保障不同人工智能治理框架和生態系統間的互操作性,即通過開放標準和開源技術,建立全球所普遍接受的人工智能安全協調機制、標準設定、評測體系。

“各個國家人工智能治理規則、規則包括辦法,可能跟外部其他國家不一樣,因爲各個國家的文化、治理體系有很大差別,我們是尊重多元化的國內治理體系的存在。另外國際上我們又需要接口,所以互操作性變得非常重要,這個也是國際治理體系需要考慮的。”清華大學人工智能國際治理研究院副院長樑正表示。