AI也有偏見 風險勿忽視 (車品覺)
全球領先科技趨勢研究公司Gartner認為,2018年是人工智能(AI)走向大眾化應用的里程碑,AI將更廣泛地影響我們生活細節。到2020年,發達國家將有20%的公民使用AI助手幫助他們完成日常生活決策;40%人面向客戶的諮詢服務時,會在虛擬助理的協助下進行;成熟經濟體中,人們將面臨比真實資訊更多的虛假資訊;人工智能將創造230萬個工作機會,同時也會消滅180萬個工作崗位。
除了經濟,科技還影響社會甚至政治。就在去年,麻省理工和哈佛大學耗資2700萬美元共同開展一個探索AI道德規範的專案。最近Facebook(fb)發生「劍橋分析」洩密事件,嚴重損害fb的名聲,亦揭示把AI部署到企業中可能伴隨的道德、社會和企業風險。
在大數據、互聯網和社交媒體時代,使用人工智能的眾多優勢已廣為人知,包括可以為企業提供競爭優勢、提升效率、洞悉客戶及其行為。但從道德規範角度看,用來訓練這些演算法的數據通常來自人類,由數據科學家所設計出來的演算法,亦無可避免地反映了人的偏見。
例如,為人壽保險定價的演算法,有沒有因為收集到關於你家族遺傳病的資訊而特別對待?這樣的做法合乎道德嗎?這些偏見有時是無意的,但都會導致使用AI的企業面臨新的風險。就如fb的CEO在美國聽證會上承認,他們未有充分關注更廣度的數據安全風險,實屬誤判。
在使用創新科技的過程中,企業可能面臨品牌受損、法律責任、失去客戶信任等諸多風險。企業如想避免,必須審視和闡明自己在企業道德方面的立場,管理層必須意識到問題所在,開始識別更廣度的企業價值觀,將之配合到人工智能應用程式設計中。過去有些企業提出,客戶要得到個性化服務就必須放棄隱私權利的這套說法,已經站不住腳了。
更多車品覺文章:
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。