You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI潛在危險|AI教父再警告 小心智能叛變

By on April 29, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech

被譽為「人工智能(AI)教父」的諾貝爾物理學獎得主辛頓(Geoffrey Hinton)【圖】近日接受美國哥倫比亞廣播公司(CBS)訪問時再發出警告,直言AI發展速度超出預期,人類被AI接管的可能性約10%至20%,呼籲正視AI潛在危險,敦促政府和企業確保AI安全發展。

辛頓認為,人工智能代理比聊天機械人更危險。(法新社資料圖片)

人類兩成機會被接管

77歲的加拿大多倫多大學榮譽退休教授辛頓,因在神經網絡領域的開創性工作、為AI機器學習奠基,與美國普林斯頓大學榮譽退休教授霍普菲爾德(John Hopfield)同獲2024年諾貝爾物理學獎。

雖然辛頓相信AI將改變醫學和教育,並可能解決氣候變化問題,但他對AI的快速發展愈來愈擔心。他指出,AI代理(AI Agent)的出現,比單純回答問題的聊天機械人更危險,因AI代理能在現實世界中行動。

辛頓預料通用人工智能(AGI)很大機率在4年至19年內出現,其中較有可能於10年或更短時間內到來。對於AI導致災難的可能性,他認同特斯拉(Tesla)及xAI創辦人馬斯克(Elon Musk)的判斷,即AI奪取控制權的機率大概是10%至20%左右。

不過,辛頓續稱:「那只是隨口一猜,理性的人會說,這個機率遠高於1%,但又遠低於99%,問題是,我們對這樣的事情毫無經驗,也沒有什麼好方法以估算這機率。」

籲增規管 正視潛在危機

辛頓警告,AI自行接管並非科幻,若要阻止這種情況發生,必須付出認真的努力,而非像現在一樣,大公司一味追求短期利益,甚至正在游說減少本已不多的AI監管,政府也對此缺乏有效規管。另外,即使AI不接管,仍然存在壞人利用AI做壞事的問題,比如大規模監控。

此外,辛頓提出比喻說:「感性上認知這情況的最佳方法是,我們就像擁有一隻非常可愛的小老虎,除非你能非常確定牠長大後不會想殺了你,否則你就應該擔心。」

對於美國等西方國家對中國實行晶片封鎖,辛頓指這或能延緩中國發展AI數年,但不會改變最終結果,而且會迫使中國更快發展自主技術。他指出,即使敵對國家,只要利益一致,也會合作,舉例雙方可合作應對AI帶來的生存威脅。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們