AI評測指引出爐 產品分4風險等級
官員說明,該次指引草案重點在於參考歐盟AI法規,定出風險分級機制,企業可以照等級做自我監測。四個等級包含無法接受風險、高風險、有限風險以及低風險。
按照草案,AI產品與系統屬於無法接受風險時,將禁止使用。屬於該列別的產品包含對人類或是特定弱勢族羣進行認知行爲操作,以致身體或心理傷害;依個人行爲或特徵進行社會評分;大規模進行生物識別執法。
至於高風險等級,可視應用領域進行評測,相關內容可能包含:安全性、可解釋性、彈性、公平性、準確性、透明性、當責性、可靠性、隱私、資安等項目。符合上述等級產品有關鍵基礎設施;遠距生物特徵識別辨識系統;教育與職業培訓之評分或錄取;就業、勞工管理及自僱機會,如自動招募或履歷篩選軟體;公共服務與私人部門重要服務,如信用評分、福利津貼系統;可能侵犯人民基本權利的執法系統,如測謊、預防犯罪、保釋等評估;移民、庇護及邊境管制,如旅行證件真實性的查覈、簽證處理;司法與民主程序,如自動判刑、自動識別適用法律。
有限風險則可由企業判定是否需進行評測;並應於人類使用前,明確告知與系統8互動所可能產生負面影響。相關產品包含聊天機器人;情感識別與生物特徵分類系統;生成深度僞電玩遊戲造與合成內容的系統。
最後是低風險層級,由企業自行管理。相關產品包含電玩遊戲;垃圾郵件分類;其他非上述風險層級提及產品或系統。
官員說,指引主要目的是讓企業開發AI產品系統,先行自我檢核跟評估。一旦風險在高風險等級以上,建議來送測。惟指引沒有強制力,就是把對AI基本規範、風險層級、評測項目、跟流程先跟企業及產業告知。希望企業、產業開發AI產品跟系統可以朝可信任、可靠、安全來發展。
至於上路時間,官員說,草案公佈後會蒐集各界意見進行評估、調整跟研析,並在制度委員會審查跟討論,有望在上半年上路。