膚色歧視!研究指出:臉部辨識黑人成功率低

臉部辨識歧視已經是不是新話題。(圖/記者洪聖壹攝)

實習記者黃肇祥綜合報導

AI、演算法等新科技如何公平公正對待每一個人?成爲現在科技發展着重的問題,只要是由人所撰寫出來的程式碼,很難做到全然客觀麻省理工學院研究最新指出,臉部辨識確實存在偏見,黑人女性錯誤率高達 35%,相比白人男性可能只有 1% 以下。

蘋果三星皆在手機置入臉部辨識系統,這套技術已經廣泛運用在我們的生活之中,但其實不同膚色性別是會影響辨識成功度的,主因就在於系統訓練、撰寫的過程中,滲入不少人類的偏見。麻省理工學院媒體實驗室研究員 Joy Buolamwini 利用 1270 名政治家臉孔,分別針對 IBM、微軟、Megvii 三間廠商的辨識系統進行測試結果發現膚色與性別會影響辨識成功率

Buolamwini 的研究結果顯示,對於黑人女性微軟的錯誤率達 21%,IBM、Megvii 則接近 35%,但若對比男性卻是遠低於 1%,Buolamwini 表示,「你不可能有一個具有道德判斷的 AI,誰創造就是誰制定標準。」《紐約時報》報導也指出,研究證實對於臉部辨識數據蒐集的採樣,男性以 75% 的高比例遠勝於女性,且超過八成是白人,這造成系統自動產生偏差

研究成果公開後,IBM 表示正在改善辨識系統,並且致力於公正、透明的服務,更表示將在這個月推出更新,提升深色皮膚女性的識別精準度 10 倍, 微軟則表示,已經進行修正措施,並且投入相關的研究領域。過去類似的爭議層出不窮,2015 年就有人的照片被 Google 系統辨識爲黑猩猩,同時也有新聞報導指出,辨識系統對於亞洲人並不友善。