誰來保護“我的聲音”?
“未見其人,先聞其聲”,如今在網絡平臺上,AI聲音隨處可見。
隨着算法不斷進步,在高性能設備和高精度模型的助力下,AI生成的聲音已從過去的“一聽就假”發展到如今的 “真假難辨”。不少有聲讀物採用AI配音,讀者甚至能選擇模仿某個特定人的聲音,這既降低了成本,也增添了趣味性。
與此同時,AI聲音濫用現象也時有發生。一些商家在短視頻平臺帶貨時,通過AI模仿知名人士的聲音編造內容,不僅嚴重誤導了消費者,也對當事人造成了不良影響。
聲音“AI克隆”被濫用
個人的聲紋信息,作爲一種生物識別特徵,具有高度的可識別性,能夠被電子手段精確記錄。其獨特性、唯一性及穩定性,使其成爲將信息與特定自然人相關聯的關鍵要素。根據《個人信息保護法》的規定,聲紋信息被歸類爲敏感個人信息,受到嚴格保護。
AI技術如何生成“以假亂真”的聲音?記者採訪瞭解到,它依賴於當下的深度學習算法,從採集到的聲音樣本中精確提取一系列關鍵特徵,包括頻率、音色、聲調、語速以及情感表達等。隨後,這些特徵被轉化爲複雜的數學模型,並通過算法進一步合成,從而生成高度逼真的聲音。
“只需擁有少量的聲音素材,即可迅速實現聲音的‘AI 克隆’。”一位不願透露姓名的技術人員告訴記者。
記者在應用商店搜索發現,大量軟件具備相關功能,一些APP的下載量超千萬次。記者選擇一款APP進行模擬,只需簡單念出一段文字或輸入音頻片段,這些APP十幾秒即可完成聲音的合成。
當AI生成聲音的門檻迅速降低,一些不法分子趁機將其濫用於詐騙、虛假宣傳。社交平臺上,利用AI技術模仿並惡搞各領域名人的短視頻屢見不鮮。曾有大量短視頻通過AI模仿某知名人士的聲音,其中部分視頻包含不當言論,引發社會熱議。該知名人士隨後發表視頻迴應,表示這些事件給自己帶來了困擾和不適,呼籲大家停止此類行爲。
此外,一些商家在短視頻平臺帶貨時,利用AI生成聲音誤導消費者。
擅自將他人聲音AI化不合法
在2024年公佈的我國首例AI生成聲音人格權侵權案中,原告殷某是一名配音演員,他意外發現自己的聲音被AI化後,在被告某智能科技公司運營的平臺中對外出售。隨後殷某將該智能科技公司等被告起訴,主張被告的行爲嚴重侵犯了自身的聲音權益。
法院審理認爲,利用人工智能合成的聲音,如果能使一般社會公衆或者相關領域的公衆根據其音色、語調和發音風格,關聯到該自然人,即可認定爲具有可識別性。因此,某文化傳媒公司、某軟件公司未經原告許可AI化使用了原告聲音,構成對原告聲音權益的侵犯,應承擔相應的法律責任。
對於此案,北京互聯網法院副院長、二級高級法官趙瑞罡認爲,我國民法典將人格權獨立成編,首次以立法形式將保護“聲音”寫入民法典,明確參照適用肖像權的形式保護自然人的聲音。聲音作爲一種人格權益,具有人身專屬性,任何自然人的聲音均應受到法律的保護,對錄音製品的授權並不意味着對聲音AI化的授權,未經權利人許可,擅自使用或許可他人使用錄音製品中的聲音構成侵權。
隨着AI技術在各個領域的廣泛應用,由AI技術引發的糾紛日漸增多。在中國裁判文書網上,記者搜索到不少侵害作品信息網絡傳播權的案件中包含聲音AI使用等關鍵詞。
對此,河北厚諾律師事務所律師雷家茂表示:“個人未經他人允許擅自將他人聲音AI化不合法,侵犯了他人的合法權益,權利人有權依法維權。根據民法典第一千零二十三條規定,對自然人聲音的保護,參照適用肖像權保護的有關規定,可以要求侵權人停止侵害、賠禮道歉、賠償損失等。”
治理應多措並舉、標本兼治
當下,與AI換臉視頻相比,AI合成語音更難辨別、門檻更低。一個“聲音很熟的電話”可能是詐騙。
2月21日,中央網信辦發佈2025年“清朗”系列專項行動整治重點,特別提到整治AI技術濫用亂象,突出AI技術管理和信息內容管理,強化生成合成內容標識,打擊借AI技術生成發佈虛假信息、實施網絡水軍行爲等問題,規範AI類應用網絡生態。
“聲音作爲一種人格權益,具有人身專屬性。我國已在現有法律框架中對聲音權益保護做出了一定規定。”雷家茂表示,“AI生成聲音的過程中,涉及聲音樣本的採集、使用、算法的研發和應用等多個環節,每個環節都可能涉及不同主體的權益。要進一步完善法律體系,細化AI克隆技術的法律條款,明確侵權行爲的定義和責任,加強執法力度。”
有專家表示,對於濫用AI“偷”聲音的亂象應多措並舉、標本兼治。平臺層面要切實履行監管責任,建立健全對AI聲音的審覈和侵權舉報機制,及時發現和攔截侵權、虛假、違法等不良內容。相關部門應繼續加大對利用AI技術進行詐騙等違法犯罪行爲的打擊力度,形成更加完善的常態化治理機制。
此外,雷家茂提示,在AI技術日益普及的時代,個人也必須加強對個人生物特徵信息,特別是聲音的保護意識。不輕信或傳播未經覈實的AI生成聲音信息,以防被誤導或捲入不必要的風險。
來源:工人日報