訂立國際條約防範AI風險(車品覺)
本文作者車品覺,為香港科技園數據治理顧問委員會主席、香港大學中國商學院客座副教授、阿里雲資深顧問,為《信報》撰寫專欄「全民大數據」。
歐洲委員會本月初在立陶宛首都維爾紐斯舉行司法部長會議,美國、英國、歐盟等多方共同簽署了《人工智能框架公約》,應對人工智能(AI)技術可能帶來的風險。《公約》是全球首個具有法律約束力的人工智能國際條約,旨在管理人工智能系統的「生命周期」,防止技術濫用,並促進負責任的創新。
歐洲委員會是由46個成員國組成的國際組織,包括27個歐盟國家。自2019年,歐洲委員會成立特設委員會研究制定公約的可行性,2022年成立人工智能委員會負責起草文本。過去兩年,來自成員國、非成員方、私營部門、民間社會和學術界的代表共同參與。
《公約》目的在於保護人權,防止人工智能對基本權利的影響,並協調全球框架。與歐盟《人工智能法案》有所不同,《公約》在側重點和適用範圍上皆有分別。《公約》只有12頁,列出人工智能系統必須遵循的關鍵原則,如保護用戶數據、禁止歧視、尊重法律等。
儘管《公約》被認為具有法律約束力,其內容卻被批評為「稀釋」、措詞模糊且存在漏洞。例如,對國家安全目的為由而使用的人工智能系統豁免,並未對違反者施加明確懲罰,主要依賴監督來強制遵從,這引發了對其法律確定性和有效性的質疑。儘管如此,《公約》也可成為各國制定人工智能法律的藍圖。在各地圍繞人工智能監管的規則之爭議正在加劇:歐盟已實施全面規則;英國和美國也在考慮相關法規;中國提出《全球人工智能治理倡議》,呼籲國際合作,共同推動人工智能技術的正確應用。
歐盟《公約》標誌着國際社會在人工智能治理的一個重大舉措,雖然其實際約束力受到質疑,但仍為全球人工智能法規的制定提供參考。因為在高速發展的人工智能亟需找到倫理平衡點,各國的合作與協調將是未來人工智能治理的關鍵。筆者覺得,這並不比地球暖化的問題容易解決。