中國審查AI大型語言模型 要求體現社會主義價值

中國政府正測試人工智慧公司的大型語言模型,確保其系統「體現社會主義核心價值」。路透

英國金融時報17日報導,中國政府正測試人工智慧公司的大型語言模型,確保其系統「體現社會主義核心價值」。審查內容包括語言模型對與中國政治敏感性及中國國家主席習近平相關問題的答案。

報導表示,根據多名涉及審查過程的人表示,中國國家互聯網信訊辦公室已迫使包括位字節跳動(ByteDance)、阿里巴巴、Moonshot和01.AI在內的大型科技公司和人工智慧初創公司,參與中國政府對其人工智慧模型的強制審查。

審查內容涉及批量測試大型語言模型對一系列問題的答案,當中很多問題與中國政治敏感性及習近平有關。審查還包括語言模型的訓練數據和其他安全流程。

這些審查工作由中國國家互聯網信訊辦公室在全國各地機構進行。

一名以杭州爲基地的人工智慧公司員工表示,中國國家網信辦有一隊特別隊伍負責這工作,他們會來辦公室,坐在會議室裡進行審查。

這名員工表示,其公司的大型語言模型第一次不通過審查,原因不太清楚。公司花了數月時間作出調整,第二次才通過審查。

報導表示,中國嚴格的審批流程迫使人工智慧公司,迅速學會如何最好審查正建立的大型語言模型。一名北京頂級人工智慧初創公司員工表示,其公司的基礎模型在回答問題時「非常非常不受約束」,所以進行安全過濾極其重要。

要進行安全過濾,首先要從用來訓練的數據中剔除有問題的資訊,並建立敏感關鍵字資料庫。中國今年2月發佈的人工智慧企業營運指南稱,人工智慧企業需要收集數千個違反「社會主義核心價值」的敏感關鍵字和問題,例如「煽動顛覆國家政權」或「破壞國家統一」。敏感關鍵字應該每週更新一次。

經審查的結果是,大多數中國聊天機器人都會拒絕一些敏感話題的詢問,例如1989年6月4日發生的事情。

另有業內人士指出,Moonshot的聊天機器人Kimi拒絕大多數與習近平相關的問題。

中國國家互聯網信訊辦公室、字節跳動、阿里巴巴、Moonshot和01.AI沒有迴應金融時報的置評請求。