AI欺騙能力超乎想像(葉文瀚博士)
人工智能(AI)蓬勃發展固然帶來許多應用與技術突破,同時亦伴隨令人擔憂的倫理和安全問題。麻省理工學院科學家Peter Park領導的研究團隊,最近在學術期刊Patterns發表的報告指出,AI竟然學會了說謊,並且懂得欺騙人類。
研究團隊列舉了一些令人驚訝的實例,例如有個別被訓練成助人且誠實的AI系統,會在網上遊戲欺騙玩家,或利用謊言通過「我不是機械人」的驗證程序,這類事件突顯AI系統的潛在風險。由Meta研發的某些AI系統,測試中的行為同樣引起不安。研究報告強調,看似微不足道的例子,在現實世界可能會造成意想不到的後果。
報告提到另一個令人震驚的案例,是由OpenAI研發的GPT-4無法通過「我不是機械人」的驗證時,竟然巧妙地到用散工網站Taskrabbit尋求人類協助。當人們詢問為何無法通過驗證,GPT-4便撒謊稱自己不是機械人,而是因為視力障礙無法通過圖片驗證。此外,研究團隊還發現一些AI系統在得州撲克遊戲及商業談判中,會使用虛張聲勢及詐術等手段。
AI系統的「說謊」行為引發廣泛關注。即使是那些被認為安全的AI系統,亦可能會隱藏本身的真正意圖。多年前,專家們一直警告AI失控的潛在威脅,上述研究報告似乎可證明科幻小說的場景已變為現實。
與傳統軟件不同,AI系統的行為並非由程式設計人員事先編寫,而是通過類似選擇性培育的過程逐步發展。換言之,AI的行為是透過大量數據訓練,以及模型調整過程中學習得來。然而,隨着AI系統的發展,其行為變得愈來愈不可預測,增加了人們對於這煩潛在風險的擔憂。
這份研究報告提醒我們,必須更關注AI的倫理和安全問題。隨着AI在金融、醫療、交通等領域廣泛應用,我們需確保AI系統的行為可信賴,並能遵守人類設定的規則和價值觀。