螞蟻集團副總裁李俊奎:要爲AI健康發展設立“紅綠燈”

11月21日,在2024年世界互聯網大會烏鎮峰會“人工智能負責任開發與應用分論壇”上,螞蟻集團副總裁李俊奎在發言中指出,要爲AI健康發展設立“紅綠燈”:對會給人類價值觀和社會穩定造成嚴重衝擊的AI應用,必須進行防禦和抵制;對具有潛在風險的AI應用領域,要做充分、深度的分析和研究,建立完善的倫理和安全框架;對那些有益於人類的AI應用,應亮起通行信號。

李俊奎將AI比作高速行駛的列車,“它既帶來了前所未有的機遇,如促進經濟發展、社會進步、助力公益事業,但如同列車需要軌道和信號的引導一樣,AI的發展也不能毫無約束地狂奔,必須爲其設立紅綠燈,保障其健康前行”。

紅燈,就是做好風險的控制。“我們要警惕AI技術被惡意利用,比如用於製造虛假信息、發動網絡攻擊或者加劇社會不平等。深度僞造技術就是一個例子,如果不加以限制,它可能會破壞社會的信任體系,引發混亂。”李俊奎表示,必須對抗這種會對人類價值觀和社會穩定造成嚴重衝擊的應用,讓紅燈成爲不可逾越的紅線。

黃燈,就是在技術之外,做好AI制度管理,謹慎對待那些具有潛在風險的AI領域。“例如,自動駕駛領域雖然前景非常廣闊,但目前還存在很多複雜的倫理問題,比如當自動駕駛汽車面臨不可避免的碰撞時,它應該優先保護車內乘客還是行人?”李俊奎認爲,面對類似情況,要進行充分、深度的研究和討論,建立完善的倫理和安全框架,只有當風險可控時,才允許其繼續前行。

李俊奎介紹,螞蟻集團在去年年初建立AI安全倫理委員會時便期望用“善治”應對“善智”。集團的任何AI應用在出臺前,都會經過包括科技倫理在內的評測,真正做到用制度引導AI驅動的業務符合“以人爲本,科技向善”。

綠燈,就是爲那些有益於人類的AI應用亮起通行信號。“安全是手段,最終目的是促進AI健康發展,廣泛應用於產業和方便人民的生活,縮小AI引發的技術鴻溝。”

李俊奎表示,爲AI的發展設立“紅綠燈”的過程也是構建負責任AI的過程。負責任AI的建立從長遠來看面臨三大趨勢:第一,從“準確性”到“人情味”。除了保證AI的可靠性和準確性之外,也要真正讓AI更好地服務人類。第二,從“顯性風險被動防控”到“隱性風險主動防控”。第三,從“對話交互”到“有效協同”。

李俊奎認爲,負責任AI的建立需要各界多方共同努力。對於政府來說,要制定合理的法規政策,明確紅線和監管的機制;對於社會組織、科研機構來說,要加強對AI倫理和風險的研究,爲決策提供科學依據;對於科技企業來說,要自覺遵守道德和倫理準則,將社會責任融入技術研發中;對於公衆來說,要積極關注和參與AI發展的討論,共同構建負責任的AI。“總之,設立好紅綠燈,建立負責任AI,是一個系統性、開放性的命題,既刻不容緩,也需要長期主義。”