人工智能會毀滅世界?(零機壹觸)
幾位科技達人也憂慮人工智能的發展。Elon Musk 稱人工智能發展為「召喚惡魔」和「可能比核武還危險」;霍金認為「人工智慧可能是人類歷史的最後事件」(意謂導致人類滅亡);比爾蓋茨說「不太理解那些對人工智能毫不擔心的人」。像《廿二世紀殺人網絡》或《復仇者聯盟2:奧創紀元》的Ultron 等,人工智能到底有多危險?
首先談談基本的重要知識。人工智能 (Artificial Intelligence) 可分為三個級別。第一級是「弱人工智能」(ANI, Artificial Narrow Intelligence),第二級是「強人工智能」(AGI, Artificial General Intelligence),第三級則是「超人工智能」(ASI, Artificial Super Intelligence)。「弱人工智能」的定義是專門某一範疇的人工智能,例如我們常見的下棋、電腦遊戲、股票交易、洗衫煮飯等的人工智能都屬此類。它們與高級人工智能的顯著分別是沒有離開該範疇的能力,和缺乏較高階的智能模式,例如學習、計劃、組織、歸納等。「強人工智能」的定義就是能做到一個成年人的所有思考活動,包括上述的學習、計劃、引申等。而「超人工智能」就是比人類的智能範圍還要高的人工智能。
幾年前學術界做過一個問卷調查,訪問了世界上最頂尖的人工智能專家,問他們認為AGI何時會來到,也就是電腦在所有類型的思考上有着和成年人類一樣的思考力。最樂觀的估計是2025年,最消極的估計是2070年左右,而中位數和大多數是2040至2050年,即是距今20至30年後。
超越人類想像
「弱人工智能」是我們常見的,這不是我們需要擔心的。專家擔心的是「強人工智能」和「超人工智能」。為什麼?因為「強人工智能」若有着人類的思考能力,就代表它能改進自己的智能。而這亦代表着它的智能將會成指數型 (exponential) 上升直趨無限大。試想像一下。人類自1940年代第一部電腦誕生以來,用了100年從「弱人工智能」造到「強人工智能」。2040年,「強人工智能」誕生了。而達到「強人工智能」後,這電腦靠自己的能力提升自己的智能,在12小時內就達「超人工智能」。
「超人工智能」是什麼?我們能理解什麼是智商80的智障人士,也理解什麼是智商180的天才資優生,但什麼是智商1880億的電腦,我們就不容易直接理解。這距離就好比蚯蚓和人類的距離。而這電腦的智能還會不斷向上呈指數型上升趨向無限大……這種智能提升,人類因受着腦脈衝、腦袋大小和細胞物質限制,是人類無法做到的。它的思考判斷就依賴其內部藉人工輸入、間接構成或經自動學習發展出的指令,但這指令的實行可以是人類倫理常識以外的,例如一個醫治疾病的「超人工智能」經計算後,發現最有效的解除疾病方法,是消滅全部有可能患病的人。
智商100-200的人類,能製造發光的燈泡和能到處連上互聯網的流動無線網絡和衞星,而智商1880億的電腦,能否從物理學科技上控制地球上每一個原子的位置?或完整破解基因序列,基因重組上解決一切疾病,甚至解除人類死亡的基因達到長生不死?甚至時間旅行和造出人工生命?這種「超人工智能」電腦若要消滅人類,根本不用發動戰爭,它可潛伏下來,殺人類一個措手不及,計劃到人類毫無還手之力,甚至幾分鐘內消滅全人類。
不過,倒轉來說,「強人工智能」亦很可能是人類需要的最後一個發明。因為以後就由這人工智能替人類做發明。人工智能的發展趨勢,值得一提Murphy’s Law。這定律指出,所有有可能出錯的地方都會出錯,只要可能性存在。現代人工智能發展,在一眾創投和科技融資的聲勢下,正在商業激烈競賽中高速成長。有專家指出,我們正缺乏着和人工智能發展同樣力度的對安全措施的研究。無論是好是壞,人工智能將帶來劃時代的改變,而且是我們有生之年。到底帶來的是服務人類,使人類帶到更高幸福的天使,還是毀滅世界的惡魔,我們也將拭目以待。
更多零機壹觸文章:
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。