大數據私隱問題浮現(車品覺)
去年11月紅極一時的大數據公司Cambridge Analytica憑着分析Facebook輿論協助特朗普當選美國總統,然後又有英國國家醫療服務體系NHS在其健康醫療大數據平台care.data,因為數據私隱問題引起公眾強烈抗議,最終摧毀了這項原本萬事俱備的計劃。與此同時,各種利用大數據及AI技術的社會問題也開始不斷浮現。
倫理影響不容忽視
其實這原本也很正常,我們所沿用的原則和法規已無法跟上數據革命步伐。大數據的進步正在不斷延展關於私隱洩露和知情同意(Informed Consent)等問題。在這情況下,我們極其需要一個全新的框架來建立一套健全的保護數據標準,讓大家對科技發展保持信心。
在自動駕駛汽車領域有一個黑色笑話,大概是問當意外發生的時候,如果無人車在沒有其他選擇之下,只可選擇撞向一位有權勢的大人物或者一個弱小的兒童,無人車的設計者應該如何處理?作為數據驅動的自動決策,在意外發生後進行責任評估,司機和軟體開發商到底誰的責任更大?同一道理,如果腦科手術機器人出了意外, 又該如何問責呢?
大數據所引發的人工智能仍然是一門相對較新的學科,在其廣泛被使用之前,公眾對這種科技的信心很重要。數據倫理和標準是一方面,而對公眾有着影響力的演算法造成的結果應否接受審計,以確保透明度和安全性?如果未來有一種演算法能左右你的教育機會、職業選擇、獲得不同社會服務的權利,你又會怎麼做?
牛津大學資訊倫理學教授Luciano Floridi一直在研究數據產生的倫理影響,他描述了人工智能兩種不同的發展前景:第一種被稱為「泳池模型」,即人工智能的「池水」將溢滿整個世界;第二種是他自己預測的「坑洞模型」,即人工智能的「水滴」會滴落在一切事物上,但只會注滿特定的「坑洞」。
諮詢公司Frontier Economics在最近的一份報告中預測,到2035年時,人工智能將為英國經濟增加8140億美元產值,並讓經濟增長率從2.5%上升到3.9%。如此美好的前景,卻需要解決包括私隱和倫理在內的諸多問題方能安全着陸,且讓我們拭目以待。
更多車品覺文章:
(編者按:車品覺最新著作《覺悟.。大數據》現已發售)
歡迎訂購:實體書、電子書
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。