數位部力推可信任 AI Meta、OpenAI 初步同意送 AI 評測

數位部長唐鳳。(餘弦妙/攝影)

數位部8日指出,人工智慧(AI)近期蓬勃發展,日前邀請國際重要AI廠商進行交流,Meta、Google、Microsoft、OpenAI 等與會廠商皆認同AI須具備可信任、準確性及安全等重要特性,其中 Meta 與 OpenAI 已初步同意將送測,另外國內業者有在發展大型語言模型的如聯發科(2454)、臺智雲等也在接觸中。

數位部表示,爲確保AI應用與全民利益保持一致,去年5月數位部正式成爲國際非政府組織「集體智慧計劃」合作伙伴,參與對齊大會專案,協助我國在全球公衆領域上,凝聚民衆對於人工智慧需求與風險之共識,共同處理「人工智慧對齊問題」;數位部致力推動可信任AI及數位信任環境,爲使AI的應用是可靠的,且爲避免生成式AI所生成的錯誤、不實及僞造訊息及圖片流竄,參考國際政策、標準與產業需求,成立AI評測中心、發佈AI評測指引,目前也針對大型語言模型(Large Language Model,LLM)進行評測,逐步成立驗證機構和實驗室,推動AI評測與驗證,建立國際交流合作。

爲從個人、利害關係社羣及國家層面探討AI的發展對社會的影響,數位部去年辦理二場「AI未來民主化」審議式工作坊,邀請相關利害關係人討論如何因應生成式AI發展。從參與者討論及回饋中,可瞭解從資料蒐集、處理到數據運用,都需要照顧社會對AI倫理的不同期望。

爲進一步迴應各界對正確應用AI於公共治理的期許,數位部與國立陽明交通大學科技與社會研究所、財團法人工業技術研究院以及史丹佛大學審議民主中心等單位合作,於今年3月23日舉辦「運用AI促進資訊完整性審議式民主活動」,透過「111」政府專用短碼簡訊平臺,隨機發送簡訊邀請公民參與。共邀集450位專家學者、公民、社羣和數位從業者,線上討論運用AI來辨識和分析資訊的完整性等相關議題。活動引起廣大回響,可見民衆對於AI運用於推動資訊完整性具有高度期待。

數位部並在4月17日邀集重要的AI國際廠商,就強化平臺的分析及辨別機制、及將語言模型(LLM)提送AI評測中心等議題作討論。與會廠商包含 Meta、Google、Microsoft、OpenAI,皆認同AI須具備可信任、準確性及安全等重要特性,並指出開發語言模型過程中,皆有其團隊負責對轄屬模型進行持續性測試與訓練調整,以符合可信賴AI系統的期待;對於其開發中的語言模型,提供給AI產品與系統評測中心(AIEC)進行評測皆持正向態度,Meta 與 OpenAI 並於會中初步表示同意。

數產署副署長林俊秀補充,目前在AI評測主要還是針對在大型語言模型進行評測,例如 TAIDE、ChatGPT 等這類大型語言模組,觀察目前國內廠商雖然也有自己在研發,但主要都還是自己在使用並未聽到有販售行爲,但數產署仍會積極去接觸,盼能引導業者來進行評測,不過評測與否並沒有強制力,只能用正向鼓勵方式來吸引業者主動評測,未來如果業者評測通過,也會在網站公佈提供民衆瞭解,這樣也算是變相幫助到業者。

此外,對於生成式AI內容進行分析及辨別方面,國際廠商皆在會中提出已建立或即將導入的相關作法,包括 SynthID 技術(用於AI生成圖片中建立浮水印,或偵測AI生成圖片中的浮水印,以方便辨識AI生成的圖片)等AI生成內容偵測技術、溯源標註及簽章、用戶檢舉機制,以及提醒用戶注意AI生成內容等作法。

會中搜集與彙整民衆及AI國際廠商的意見,未來數位部將持續敦促網路平臺業者推動資訊辨別與分析機制,而使用者於網路平臺所刊登或推播之內容,若含有使用深度僞造技術或人工智慧生成之個人影像,應明確說明或標註,以確保資訊完整性。

數位部指出,面對AI技術帶來的資訊完整性挑戰,需要平臺、政府和民衆的共同努力,藉由建立透明的監管機制,並加強公衆對AI生成內容的辨識能力,以促進資訊真實性與完整性;民主審議亦將強化社會韌性,未來數位部也將持續建立兼顧科技創新及風險治理的可信任AI發展環境,包括人才優化及留才攬才、重視AI倫理法制、推動資料治理及流通,建構以人爲本的健全數位生態系。