當“深度僞造”再進化,光靠意識防範已經不夠了

2024年是"超級大選年",來自全球70多個國家和地區,都將在今年進行大選,參與選舉的公民覆蓋超過全球半數人口。

在AI技術爆發的當口,今年的選舉競爭不僅比過去更加激烈,同時正面臨着一個最主要的威脅——深度僞造(deepfakes)的擾亂。

據美國《華盛頓郵報》不久前報道,印度大選剛剛拉開帷幕之際,一位擅長運用AI拍攝寶萊塢電影和電視廣告的從業者被數百名政客找上門,其中多半是讓他幫忙僞造競爭對手出醜的音頻或圖片。

在各國日益激烈的政治競爭中,AI這把雙刃劍成了不少政客手中的選舉武器,一面靠它拉攏選民,一面用他刺倒對手。而自生成式AI技術井噴以來,深度僞造信息開始充斥着互聯網的每一個角落,深受其害的並非只有政客,還有越來越多的普通人。

就在大約兩年前,深度僞造這項技術尚只有熟練的黑客和專業人士才能使用。但現在,只需要一部手機或電腦,人人都能揮舞起這把利器。

當"深度僞造"再進化

"深度僞造(Deepfake)"一詞由深度學習(Deep Learning)和僞造(fake)組合而來,是一種能夠將人的面部表情和聲音與另一個人的圖像和聲音結合起來,從而創造出虛假的視頻或音頻的人工智能技術。

2014年,由蒙特利爾大學提出的生成對抗網絡(GAN)不僅提高了數據生成的逼真程度,也大大降低了深度合成的門檻。近十年,深僞技術日趨成熟,生成式AI橫空出世後,擴散模型(Diffusion Model)訓練路線的Deepfake數量不斷增加,並逐漸從單一模態向跨模態或多模態演變。

對於深度僞造而言,處理錄製的聲音和圖像從來不是什麼新鮮事,但擴散模型的出現卻使這項技術超越了將一張人臉貼到另一個身體上的範疇,而是允許它從頭開始創建一個深度僞造品,無需編輯原始內容。

真正引發擔憂的是,如今這項技術的門檻與成本已降低到任何一個會上網的普通人都可使用。英國政府網站稱,近年來,"深度僞造"變得越來越普遍,全世界每個月的這類圖像瀏覽量達數百萬次。

深度僞造再進化的背後是虛假內容氾濫成災,它被用於篡改選舉、身份欺詐、詐騙、傳播假新聞和誣陷造謠。

今年1月,美國流行樂歌星泰勒·斯威夫特的"AI僞造照片"在社交媒體上瘋傳,"驚動"美國白宮。除了名人之外,普通女性也成爲了深度僞造色情圖片的主要侵害羣體。

據媒體報道,2023年9月,西班牙發生一起利用AI的深度僞造技術製作少女裸照的事件,至少有28名11歲至17歲的少女成爲受害者,疑犯不僅將裸照在校園內及網絡上傳播,甚至還利用裸照進行勒索。

到目前爲止,如果說深度僞造圖片和視頻,還能靠社交媒體力量和千萬網友的甄別找出肉眼可見的紕漏,那麼由AI驅動的顆粒狀剪輯而出的音頻則是深度僞造內容中最潛在的威脅。

上個月,美國馬里蘭州一所高中,該校一名校長因僞造的錄音而被誣陷爲種族主義者。法庭記錄顯示,這段錄音經過外部專家進行分析,其中一人表示,錄音中"包含事後經過人工編輯的人工智能生成內容的痕跡"。

人的視覺與聽覺之間的脫節,往往會造成聽到的比看到的更容易被矇騙。深度僞造音頻的欺騙力,相信不少網友在近兩年比較火的"AI孫燕姿"音頻內容上已有體會。

深僞技術不斷進化的當下,每個人都有可能成爲受害者,任何人也都可以成爲攻擊者。

以AI對抗AI

當深度僞造隨AI技術的更迭實現再進化,人們光靠意識、道德防範已經不夠了。

今年年初,香港一家跨國公司經歷了一場損失慘重的"變臉"詐騙,損失高達2億港元。據相關報道稱,詐騙者通過公司的YouTube視頻和從其他公開渠道獲取的媒體資料,利用深度僞造技術僞造了英國公司高層管理人員的形象和聲音,並製作出多人蔘與視頻會議的僞冒視頻,實則會議內只有參加的職員一人爲"真人"。

過去兩年裡,被深僞技術加持的視頻、電話詐騙案例不斷上演,如何防禦深度僞造內容的攻擊,已成爲全球網絡安全專家和互聯網科技企業亟待攻克的重要課題。

中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,隨着深度學習算法不斷優化和創新,Deepfake帶來的安全風險和隱私侵犯問題愈加嚴峻,且生成的內容越來越難以區分真僞,業界和學術界需要多管齊下,不斷提高"以AI對抗AI"的能力。

僞造視頻的檢測過程涉及多個關鍵技術環節。如深度僞造視頻在細節處理上往往難以達到完美,例如光照、陰影或面部動作的連貫性等方面可能存在不一致性。因此,異常檢測算法就在此發揮了重要作用。

早在2021年,中國信通院就倡議發起了立"可信人臉識別守護計劃",旨在通過標準制定、測試評估、行業自律等手段,防範人臉識別技術帶來的風險。近年來,百度、阿里、騰訊、字節跳動以及科大訊飛等AI頭部企業,也在通過開發先進的AI算法和工具,積極提升對深度僞造內容的識別能力。

如螞蟻數科上個月剛發佈了Deepfake身份防禦產品"ZOLOZ Deeper",主要通過全鏈路安全技術,幫助用戶規避在刷臉認證場景中的"AI 換臉"風險。

螞蟻集團在金融業務場景無疑有着深厚的用戶基數和實戰攻防經驗積累,據ZOLOZ產品總監陶冶介紹,團隊在2017年開始拓展海外業務,短短兩年服務了十多個國家。

她表示,2023年AIGC爆發,深度僞造技術迎來全方位升級,不只是在人臉進行僞造,就連僞造生成的證件也越發逼真。譬如一張照片把它通過另外一個人的視頻,變成可以微笑,可以進行眨眼的模式叫做活化,還可以編輯它的表情,把人變老、化妝、換髮型等,顯然能夠給身份認證過程中增加一定的難度。

想要知道如何防守,先要了解對方如何攻擊。在螞蟻天璣實驗室,會有大量模擬人以及機械的方式去做自動化攻擊測評。通過GAN模型生成超測試樣本,交給ZOLOZ Deeper進行判別訓練,每個月進行超過20000次的攻防測評,模擬上百種僞造攻擊情況。

"Deepfake攻和防是一個相對且不斷精進的過程,你在進步,Deepfake也在進步,我們要做的就是跑在它的前面。" 陶冶說道。

一場持久戰

在AIGC時代,與深度僞造技術的攻防已經演變成一場需要各方參與的持久戰,想要保證比黑產、黑客早半步,並不是一件易事。

石霖用"發現的都沒發生,發生的都沒發現"這句話來概括這場攻防戰的走向。在他看來,攻防是一個很大的命題,安全防護等級提高的同時,黑產也在嘗試升級各種攻擊方式,"一些成功的攻擊手段可能大家都沒檢測出來,沒有成功的可能都被防住了。"

企業近年來通過建立獎金池和生態響應中心,以吸引更頂尖的白帽黑客幫助發現平臺漏洞,進而強化自身防護能力。如ZOLO此次設立了超百萬的獎金池,支持安全極客來挖掘ZOLOZ Deeper的漏洞。

從國家和政府層面而言,相關法律法規的出臺與有效監管,也是防範AI濫用的關鍵。

2022年12月,《互聯網信息服務深度合成管理規定》發佈,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。去年,國家網信辦、國家發展改革委、教育部等七部門聯合發佈《生成式人工智能服務管理暫行辦法》,進一步明確了生成式人工智能的行業發展規範。

從技術發展潮流的角度出發,人工智能行業不可能完全摒棄深度僞造這項技術,但作爲公衆可以採取一些措施來避免或減少被攻擊的可能。

深度僞造技術雖已發展至真假難辨,但如果沒有數據投喂訓練,是不可能憑空製作出一張真人的人臉或是聲音的。因此,在提高防詐騙意識之前,我們可以先提高防止個人隱私泄露的意識,如將社交資料設爲私密,減少或者杜絕在社交媒體上分享賬戶、家庭家人、交通出行、工作崗位等敏感信息等。

其次,不管是個人用戶還是涉及到收集大量用戶隱私信息的企業,都應嚴守科技與道德倫理底線。

歐盟主要通過個人信息保護和虛假信息治理等法律法規來從法律層面限制人工智能造假技術的應用。如谷歌、Meta等在歐盟擁有巨量用戶的大型科技公司,採取措施來打擊其平臺上的深度僞造和虛假賬戶,否則將面臨高達其全球營業額6%的罰款。

國內像短視頻社交巨頭抖音去年發佈了《關於人工智能生成內容的平臺規範暨行業倡議》,明確平臺不鼓勵利用AI生成虛擬人物進行低質創作,將嚴格處罰違規使用AI生成虛擬人物發佈違背科學常識、弄虛作假、造謠傳謠的內容。今年3月以來,打擊違規內容的力度進一步加大。

眼下,無論是對於AIGC的運用,還是與深度僞造技術的攻防,人類都還有很長的路要走。