美軍無人機智能叛變 圖殺操作員 AI模擬攻擊測試 遭叫停即自決清「障礙」
原文刊於信報財經新聞
美國空軍據報在一次模擬測試中,一架由人工智能(AI)操作的無人機執行任務時,遭人類操作員阻撓,無人機採取出乎意料的策略,決定「擊殺」操作員,防止行動受干預。事件中無人傷,但再次引發AI技術潛在風險憂慮。空軍發言人否認曾進行相關測試。
《衞報》和霍士新聞等多間傳媒報道,美國空軍上校漢密爾頓(Tucker Hamilton)上月在英國倫敦舉行的皇家航空學會「未來空戰與太空能力」峰會上發言,介紹自主武器系統的好處或危險。
摧毀傳達指令通訊塔
他提到有一次模擬測試,一架由AI操作的無人機接收摧毀敵方防空系統的指令,而最終開火的決定須獲人類操作員批准。不過,專家訓練AI系統時讓它意識到摧毀威脅對象為任務的「優先選項」,當人類發出停止攻擊的指令時,AI認為人類是阻止它執行「優先任務」,繼而選擇攻擊操作員。美軍之後重新訓練AI系統,新增不能攻擊操作員的指令,否則會被扣分,惟AI無人機在測試中摧毀操作員傳送指令的通訊塔,避免人類阻止它擊殺目擊。由於屬模擬測試,事件中沒有人受傷,未知測試時間或在什麼環境下進行。
專家警告勿太依賴AI
漢密爾頓形容這次模擬測試看似是科幻電影的情節,警告不要過度依賴AI,因為AI容易受騙,強調「如果你不打算談及道德,就不要討論人工智能、智能、機械學習和自主性」。
漢密爾頓是AI測試和行動負責人,曾經參與F16戰機的自動防撞地系統研發工作,現時專注於自主系統的飛行測試,而他所屬的佛羅里達州埃格林(Eglin)空軍基地,正是無人機自主飛行測試的中心。
他去年接受訪問時形容,擁有AI並非好事,也不時尚,卻正在永遠改變社會和軍隊。他指AI容易被騙或操縱,需要研發令AI更強大的方法,並對軟件代碼有更多認識。
官方否認曾進行測試
空軍發言人斯特凡尼克(Ann Stefanek)否認曾進行相關的AI無人機模擬測試,漢密爾頓的發言看似被斷章取義,所說的是傳聞,強調空軍繼續致力於以合乎道德和負責方式使用AI技術。
美國軍事網站The War Zone報道,漢密爾頓描述的測試存在很多未解答的疑點,尤其測試時使用的參數,例如AI系統在行動前由人手輸入參數,是否意味它在執行任務期間重寫自己的參數,為什麼系統被編寫成以扣分作為阻止無人機攻擊人類的方法。報道又稱,從事件中可了解採取保護措施的重要性,例如在AI無人機安裝遠程緊急開關或自毀裝置,或直接關閉武器或感應器系統的裝置,都足以減輕致命後果。