AI臉部辨識涉「歧視」黑人
原文刊於信報財經新聞專欄「StartupBeat創科鬥室」
部分人對膚色及性別有偏見,原來人工智能(AI)亦可能存在偏差情況。美國麻省理工學院媒體實驗室(M.I.T. Media Lab)近日發表一份研究報告指出,AI識別對白人男性臉部的準確度可達99%;但皮膚愈偏黑,失誤就愈多﹔其中,黑人女性的準確度,最低更只有近65%。
有關研究收集了1270個不同臉部數據樣本,分別來自3個以黑人為主的非洲國家,以及3個以淺膚色人士為主的北歐國家。負責測試的研究人員根據皮膚科醫生使用的6點標籤系統(Six-point Labeling System)為臉部膚色作分類。研究測試了Microsoft、IBM及中國曠視科技等公司幾款支援性別分析功能的臉部識別技術。
結果顯示,Microsoft的技術在識別黑人女性時,錯誤率為21%;IBM及曠視科技則接近35%。惟測試白色男性臉部時,全部錯誤率均低於1%。
報告發表後,IBM回應稱,他們將於本月改良服務,以「致力達到透明及無偏見」,深色皮膚女性的識別準確度料可提高近10倍。微軟表示,他們正改善其識別能力,亦已投資「識別、了解及去除偏見」的相關技術。至於中國曠視科技,暫未對研究結果作出回應。
肇因數據庫樣本偏頗
據《紐約時報》報道,現時常用的人臉識別數據庫中,有逾75%的樣本為男性,白人比例更超過八成。訓練人工智能需要大量數據,從而提高辨識的準確度,若資料存在偏頗,效果將大打折扣。例如在2015年,Google的圖像識別系統就把非洲裔美國人錯誤標記為「大猩猩」(Gorilla),該公司已為事件道歉。
[ English Version ]
Facial recognition systems biased toward white men: study
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。