人工智慧監管 美歐殊途同歸
人工智慧(AI)先驅班吉歐(Yoshua Bengio)在2023年美國參院聽證會上,將人工智慧當前的快速發展描述爲「歷史上前所未有的時刻」。然而,它們直接取用數億用戶的訊息,並在教育、醫療保健、媒體和金融等一系列領域構建的數千個應用程式,爲如何管理這些模型的問題帶來了新的緊迫性。
歐盟成員國本週批准世上第一部監管人工智慧的主要法律,這是一項開創性的監管法案,爲人工智慧技術制訂了全面的規則。《人工智慧法案》凸顯在處理新技術時信任、透明度和問責制的重要性,同時確保這種快速變化的技術能夠蓬勃發展並促進創新。
依據應用風險等級,該法案禁止「無法接受」的人工智慧應用程式;這類應用程式具有所謂的「社會評分」系統,根據數據的彙總和分析、預測以及職場和學校的情緒識別,對一般大衆進行評析。被歸類爲「高風險」人工智慧系統則是涵蓋自動駕駛汽車或醫療設備,因爲它們會對人民的健康、安全和基本權利構成的風險進行評估。金融服務和教育領域的應用也被納入,因這些領域的演算法往往存在偏見。
這些規則對在歐盟開發、創造、使用或轉售人工智慧的任何個人或實體產生重大影響,其中美國科技公司首當其衝,因爲這些科技巨頭靠生成式人工智慧吸引大量資金;面對法律的新要求,必須研究如何遵守,以免蒙受鉅額罰金。歐盟有權對違反《人工智慧法案》的業者處以最高3500萬歐元或其全球年收入7%的罰款。
相較於歐盟的先聲奪人和積極進取,美國政府對人工智慧監管一直採取較爲自由放任的態度,沒有專門針對通用人工智慧的聯邦監管框架。相反地,人工智慧監管是分散的,由各個聯邦機構獨立制訂,以及實施對特定需求和背景的人工智慧新政策,缺乏統一的國家戰略。一直到2023年秋季拜登總統發佈《關於安全、可靠和可信賴地開發和使用人工智慧的行政命令》,概述了美國管理人工智慧的方法,國會議員也提出了各種人工智慧立法提案,美國纔算真正認真開始正視人工智慧問題,不過至今仍缺乏專門監管通用人工智慧的聯邦立法程序。
將歐盟《人工智慧法案》與美國《行政命令》進行比較,就會看出,美國的《行政命令》主要概述了聯邦機構應遵循的指導方針,以期塑造產業慣例,但除了必要時依據《國防生產法》進行強制規範外,不會對私人實體進行監管。而歐盟《人工智慧法案》直接適用於在歐盟境內營運的任何通用人工智慧提供商,這使得影響範圍更加廣泛。而且美國的《行政命令》可以隨時修改或撤銷,特別是選舉結果白宮易主時;而歐盟《人工智慧法案》白紙黑字的條文則是可長可久、有約束力的法律。
雖然美國《行政命令》特別關注人工智慧技術雙重用途的風險和潛力,但歐盟《人工智慧法案》對系統性風險更爲注意,其中包括大規模歧視、重大事故、以及對人權的負面影響。
雖然美國和歐盟的兩種法令本質上都是全面的,但由於必要專業知識的潛在差距,美國聯邦政府和歐盟想在規定時間內執行可能會面臨挑戰。《行政命令》規定聯邦機構立即採取行動的最後期限迫在眉睫;歐盟《人工智慧法案》針對通用人工智慧模型的規則預計將於2025年初詳細制訂。
從全球影響來看,《行政命令》主要確定本國政策基調,預計短期內對全球的影響比較間接,然而歐盟《人工智慧法案》有可能像《通用資料保護規範》(GDPR) 般建立全球優先地位。基於歐洲市場的重要性,投入人工智慧的大型跨國企業,將會盡量配合,以求進入歐盟內部市場的機會。
隨着這些人工智慧行爲準則逐漸成爲關注的焦點,如何在人工智慧治理方面達成更大的全球共識仍是迫切的問題。雖然七大工業國(G7)於2023年9月7日已制訂人工智慧行爲準則,但關鍵問題是,如何實現彼此互通,讓政策相互支持而不是彼此扞格。
歐盟和美國以及其他G7國家之間的跨大西洋合作,正可作爲協調國際努力的典範,爲國內戰略和監管方式不同的國家在應對全球經濟面臨的機遇和挑戰時提供重要藍圖,以共同面對演進速度一日千里的通用人工智慧模型的機遇和挑戰。