認識美國憲政的韌性系列之五:陳思奕》反制造謠與散播假消息的社會共識
2016年大選中劍橋分析公司(Cambridge Analytica)利用從臉書獲取的幾千萬用戶的數據,利用人工智能方法分析用戶的政治傾向和其他偏好,通過社羣媒體有針對性地向選民投放信息,影響他們在大選中的行爲。(圖/達志影像/shutterstock)
在2020年大選即將全面展開的6月下旬,加州伯克萊大學的法裡德教授(Prof. Hany Farid)在國會的聽證會上警告,2020年美國大選會面對嚴重的製造假消息和散佈陰謀論的威脅。他說,「互聯網,特別是社羣媒體,已經被個人、組織和其他國家作爲武器,以在美國挑起民間動亂,干擾民主選舉」。他向國會建議,「我們應該對我們國家所面臨的問題進行激烈的辯論,但我們不應該允許社羣媒體以壓制選民、傳播和放大謊言、陰謀、仇恨和恐懼的形式,成爲反對我們社會和民主的武器」。
其中最著名且證據確鑿的,是2016年大選中劍橋分析公司(Cambridge Analytica)利用從臉書獲取的幾千萬用戶的數據,利用人工智能方法分析用戶的政治傾向和其他偏好,通過社羣媒體有針對性地向選民投放信息,影響他們在大選中的行爲。相關醜聞曝光最終導致劍橋分析公司破產,臉書被多個政府機構罰款。聯邦交易委員會的罰款是最大的一筆50億美元。
2020年的情況比四年前有了很大的變化。如今人工智能的造謠技術和造謠機器已經成熟。伴隨社羣媒體的超高速傳播,對憲政提出前所未有的挑戰。稱爲深度造假(deep fake)的人工智能技術,不僅可以寫作造假文字,更可以從實際音頻、照片和視頻獲取信息,製造假音頻、假圖片,甚至假視頻等。2019年秋美國國會曾舉辦聽證會,兩黨議員共同目睹人工智能家播放的、用深度造假技術僞造的衆議院議長佩洛西 的演說視頻。納粹的宣傳部長戈培爾(Joseph Goebbels)曾經說,謊言如果重複一千遍又不許戳穿,就會變成真理。如何在保護言論自由的基礎上,戳穿謊言,保護美國的民主制度,是兩黨議員共同的利益所在。
普通人無法從視頻本身判斷深度造假視頻的真僞,言論自由又意味着不能簡單禁止發佈僞造的消息。但是,人工智能專家有很多技術手段證明真假。因此,在多次聽證之後,兩黨議員共同決定,要求運營社羣媒體的公司盡其能力自我監管,幫助戳穿謊言,阻止謊言的傳播。
這纔有了臉書(Facebook)、推特(Tweeter)及油管(YouTube)等主要社羣媒體平臺推出的自我監管制度。其中包括標註其平臺出現的不實信息,關閉數十萬的假賬戶(即專門用來傳播假新聞的機器人賬戶,或者人工智能操縱的無人賬戶),刪除某些違法內容。
但是,所有社羣媒體平臺都是商業性的。其商業模式靠點擊率盈利。大規模自我監管會降低點擊率。而且他們也懼怕自我監管引發政治上的攻擊。其結果是,一些人羣認爲他們的監管極其軟弱無力,而另一些人羣認爲他們是獨裁者,違反言論自由。而且在這些「主流」社羣媒體之外,新的社羣媒體,甚至專門用來造假新聞的媒體,源源不斷地產生。如何在充分保護言論自由的基礎上,應對這個挑戰,是一個尚待解決的重大問題。
用人工智能造謠固然是新的挑戰,但造謠是人類社會從來就有的現象。的確,憲政的原則是保護言論自由,因此法律不能立即禁止任何人造謠。但是法律的原則裡還有一條:不能以任何方式損害他人的利益。應對造謠的相關法律有兩大類:刑法和民法。
謊言與民主憲政完全不相容。如果社會充滿了謠言,如果多數人相信謠言,民主憲政不可能建立,已經建立的民主憲政則受到極大的威脅。不幸的是,在2020年大選過程中,有空前大量的謊言和謠言流行,對憲政形成空前的挑戰。沒人知道將會在什麼時候、以什麼方式解決相關的問題。但可以確定的是,爲了保護民主憲政制度,美國的全社會、立法機構、法院、大學、媒體、社羣媒體等等,一定會在憲政基礎上,設法解決大規模造謠、傳謠的問題。
(作者爲美國華人學者)