AI 人面辨識技術原來有嚴重的膚色和性別歧視

研究顯示對於白人或男性以外的面孔,AI 的錯誤率會急升。

AI 人面辨識技術原來有嚴重的膚色和性別歧視

MIT 和斯坦褔大學合組的研究團隊針對三種不同的面孔辨識技術研究,發現它們都會因為對象的性別和膚色而有著不同的效果,報告全文將會在本月稍後舉行的 Conference on Fairness, Accountability, and Transparency 發表。報告中特別把面孔辨識技術對於不同性別和種族對象的準確度劃分,發現由美國主流科技公司開發,聲稱具有超過 97% 準確度的面孔辨識系統,其資料庫是由超過 77% 男性和超過 83% 白人的面孔資料組成。所以面孔辨識系統對於白人或男性以外的面孔,AI 的錯誤率會急升。

為了測試 AI 面孔辨識系統,MIT 研究員 Joy Buolamwini 收集了超過 1,200 張相片,裡面的女性比例大幅增加;同時也按照 Fitzpatrick 等級及諮詢皮膚醫生的意見後,把不同膚色的面孔分類。

結果發現三個面孔辨識系統對於深膚色的女性錯誤率,分別達 20.8%、34.5% 和 34.7%。其中兩個系統對於分類為最深膚色的女性面孔,錯誤率更高達 46.5% 和 46.8%。所以從本質上,和系統丟硬幣隨機選擇沒兩樣了

對於 AI 科技的演算法存有膚色和性別偏差的說法,業界裡已經討論很久了,而且面孔辨識系統對深色皮膚的辨識效果不佳也時有所聞。但即使在有著如此前提之下翻閱報告,看到這高錯誤率的結果也同樣會被嚇倒。在全球化、地球村概念盛行的今天,科技發展也必需要同時考量到不同膚色人種和性別的影響,不然的話,再高的科技也未能讓所有人平等受惠。

來源: MIT

經由: Engadget