大數據傲慢與偏見(車品覺)
以色列電視喜劇《阿拉伯勞工》講述阿拉伯人主角沮喪地發現自己經常在檢查站被攔截,於是他問一位以色列朋友如何避免這種情況。朋友聽罷建議他買一輛特定牌子和型號的汽車,阿拉伯人照做了。很神奇地他開始順利通過檢查站,再也沒受到任何騷擾。面對預測分析,相信很多人也想尋找那輛能夠讓自己越過困境的「好車」。
隨時好人當賊辦
你們或許有過以下經歷:3年前作為港澳居民的我好不容易申請到一張內地信用卡,可是打開確認信件時發現額度居然只得2000「大洋」。失望之餘,惟有求教某銀行的演算法專家。他不慌不忙,教我快速提升信用額的奧妙。沒想到,神秘的面紗背後原理竟是如此簡單:一、每月使用量都超出限額;二、每月必申請臨時額度;三、準時還款;四、最少有一次海外消費。神奇的事情發生了,一年後我的信用額度變成10萬大元了。
講述這兩個故事,是希望大家意識到某些強大的演算法應用仍存在巨大缺陷。隨着預測分析進入我們日常生活,愈來愈多事實表明,每天看到的新聞、信用卡的額度、購物推薦及優惠等,都可能被演算法的偏見所影響。甚至乎有一天海關把你誤會為恐怖分子,也不是一件稀奇的事,因為演算法的偏見已經無處不在了。
美國就有一份《大數據時代民權原則》(Civil Rights Principles for the Era of BigData),呼籲使用演算法必須公平公正。大家正在議論,是否需要為此建立某種具體的道德標準,或者最低限度要以公開透明為準則。還有一條重要規則,就是電腦不能改變人類責任。如果人類做某件事情是不合法或不道德,那麼人類創造的電腦程式做這件事情,同樣也是不合法和不道德。但現在,太多人把電腦程式作為擋箭牌。「我們是在使用電腦分析程式,所以沒有關係」,這不就是數碼版的「我只是按命令行事」嗎?
數據科學家們也提出了一些重要觀點:
一、演算法的偏見可能因購買的數據有誤,經過不同程度的加工累進而影響原有的模式設定。
二、偏見也可能來自類比的演算法,最終會用他人的行為來評判我們,而不是根據我們自己的行為。
三、例如某人被劃入某一種行為的行列,被認為是不可靠的人,那麼演算法就會進行區別對待,使他失去翻身機會。
其中一種彌補方案,是讓用戶有機會挑戰分析結果,就像幾十年前美國聯邦貿易委員會頒布的《公平資訊實踐原則》(FIPPS),企業可以通過任何方式作出決定,但其過程必須透明,並賦予個人挑戰該決定的權利。
更多車品覺文章:
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。