歐盟《人工智能法案》正式生效,全球首部全面監管人工智能的法規

IT之家 8 月 1 日消息,在歐盟官方發佈《人工智能法案(Artificial Intelligence Act)》最終完整版本 20 天后,全球首部全面監管人工智能的法規於當地時間 8 月 1 日正式生效。

據介紹,《人工智能法案》旨在確保在歐盟開發和使用的人工智能是值得信賴的,並有保障措施保護人們的基本權利。該法規旨在在歐盟建立一個統一的人工智能內部市場,鼓勵採用這項技術,併爲創新和投資創造一個支持性的環境。

《人工智能法案》規定,對違反被禁止的人工智能應用程序的罰款可能高達全球年營業額的 7%,對違反其他義務的罰款最高可達 3%,對提供錯誤信息的罰款最高可達 1.5%。該法案中的所有條款將在兩年內全面適用,但其中一些將會更早實施。

《人工智能法案》基於歐盟的產品安全對人工智能提出了前瞻性定義,IT之家彙總如下:

最小風險:大多數 AI 系統,例如支持 AI 的推薦系統和垃圾郵件過濾器,都屬於這一類。由於這些系統對公民權利和安全的風險最小,因此在《人工智能法案》下沒有承擔任何義務。公司可以自願採用額外的行爲準則。

特定的透明度風險:聊天機器人等人工智能系統必須向用戶清楚地披露他們正在與機器交互。某些人工智能生成的內容,包括深度僞造的內容,必須被標記爲此類內容,並且在使用生物識別分類或情感識別系統時需要通知用戶。此外,提供商在設計系統時必須將合成音頻、視頻、文本和圖像內容標記爲機器可讀的格式,並可檢測爲人工生成或操縱的內容。

高風險:被確定爲高風險的人工智能系統將被要求遵守嚴格的要求,包括風險緩解系統、高質量的數據集、活動記錄、詳細的文檔、清晰的用戶信息、人工監督以及高水平的穩健性、準確性和網絡安全。監管沙盒將促進負責任的創新和合規人工智能系統的開發。例如,這種高風險的人工智能系統包括用於招聘的人工智能系統,或用於評估某人是否有權獲得貸款,或運行自主機器人的人工智能系統。

不可接受的風險:被認爲對人們基本權利構成明顯威脅的人工智能系統將被禁止。這包括操縱人類行爲以規避用戶自由意志的人工智能系統或應用程序,例如使用語音輔助鼓勵未成年人危險行爲的玩具,允許政府或公司進行“社會評分”的系統,以及預測性警務的某些應用。此外,生物識別系統的某些用途將被禁止,例如在工作場所使用的情緒識別系統,以及一些用於對人員進行分類的系統,或在公共可進入的空間中用於執法目的的實時遠程生物識別系統(只有少數例外)。