李長亮:算法無處不在,但切忌“算法爲王”

來源:環球時報

在這個信息時代,算法無處不在,幾乎觸及我們工作生活中的每個角落。我們似乎已經被算法包圍,很多人擔心社會的運轉會“以算法爲王”,人類會成爲“雲奴隸”。其實,儘管算法影響廣泛,但它並不決定一切。算法本質上還是一種工具,它存在於人類智慧與決策體系之中。從技術屬性來講,算法本身無法爲王;從社會倫理角度出發,人類也不會允許算法爲王。

算法可以基於數據爲我們量身定製信息和服務,比如視頻網站分析用戶歷史搜索等行爲數據,預測用戶可能感興趣的視頻內容;在線學習平臺通過分析學生的學習進度、測試成績和學習風格,提供定製化的課程和複習材料;視頻監控系統通過集成的圖像識別算法,實時分析視頻流,檢測異常行爲,甚至自動識別和追蹤特定個體;智能電網的算法通過預測能源需求、優化發電效率和合理分配資源;自動駕駛汽車和無人機的算法處理來自無數傳感器的海量數據,學習和適應不斷變化的道路和飛行條件,提供安全、高效的駕駛決策,等等。

算法是有技術侷限性的,其“決策”基於模式識別和概率計算,而非自主意識,還有很多需要加強的地方。首先,算法的性能高度依賴於數據的質量和數量,如果數據存在偏差或不足,算法的輸出可能就不準確。許多強大的算法,比如深度學習模型、大語言模型等,依舊是“黑盒子”系統,它們的決策過程缺乏透明度和可解釋性。在需要決策可解釋性的領域,如醫療診斷、司法判決等,如果我們不能理解算法的決策過程,那麼就難以完全信任它們的決策結果。其次,算法通常在特定的數據集上訓練,並期望它們能夠泛化到新的場景數據上。然而,算法的泛化能力是有限的,尤其是在數據分佈發生顯著變化的時候,算法可能無法適應新的數據分佈,導致性能急劇下降。進一步而言,現實世界是動態變化的,因此算法需要不斷適應這種變化,這就要求算法具備某種形式的學習能力或者定期更新。但是,動態適應性本身是一個非常大的技術挑戰。另外,算法是以編碼的形式存在,它可能會受到各種攻擊,包括數據中毒、對抗性攻擊等。這些攻擊可以誤導算法,導致錯誤的輸出。雖然有研究致力於增強算法的魯棒性,但到目前爲止,還沒有萬無一失的解決方案。

從人類社會學角度出發,人類社會也不能允許算法爲王,會以相應的法律法規進行約束。首先,自主權是現代倫理學的一個核心原則,也是人類尊嚴的重要體現,個體應該有選擇自己決策的權利,如果算法爲王,會破壞人類社會的基本倫理架構。比如,算法收集使用用戶數據時,如果任由算法自作主張,這會涉及個人隱私信息自主權的基本問題。其次,算法會帶來偏見和不公,由於算法通常是由既有數據訓練而來,如果這些數據包含偏見,算法會繼承甚至放大這些偏見。這不僅會影響決策的公正性,也可能導致社會不平等和歧視。例如,如果一個用於招聘服務的大語言模型,其訓練數據中男性候選人的成功率遠高於女性,則該模型輸出的結果可能會更傾向於選擇男性候選人,從而帶來職場上的性別歧視。再者,算法會帶來“信息繭房”,限制人們接觸到的信息類型,影響個人的世界觀和決策,不利於人類社會的創新和進步。另外,算法設計的不透明可能會影響公共輿論,比如用於塑造或操縱公衆意見,影響對社會大衆的引導和控制,甚至會影響政府選舉、股市交易等關係國家政治經濟的大事。最後,算法無法擁有人類的道德判斷和同情心,在處理包含道德困境和情感糾紛的情況時,算法可能無法作出最符合人類價值觀的決策。

在這個與算法共舞的時代,我們既是技術進步的受益者,享受着算法帶來的諸多便捷,同時也必須對算法可能引起的風險保持高度警覺,在這一共生關係中尋求動態平衡。隨着社會與技術的發展,未來我們有機會建立一個既安全可解釋,又符合人類社會倫理的算法生態系統。(作者是中國中文信息學會理事)