深偽技術是科技雙刃劍 (方保僑)
這是一個驚人的科技發展時代,科技帶來的變化深深影響着日常生活,其中一個關鍵轉變源自深偽技術(Deepfake)。
該技術運用人工智能(AI)力量,以極為逼真的方式偽造影片和照片,潛力實在驚人,卻存在嚴重安全風險。
最初發展Deepfake是源於娛樂與學術研究,利用生成對抗網絡(Generative Adversarial Network,簡稱GAN)的深度學習模型,把個人臉孔轉移至另一人身上,甚至可以模仿語言風格及聲音,這種技術很快就顯露出潛在危機。

Deepfake進步神速,讓騙徒輕易製造出極其逼真的偽造影片和語音錄音,甚至模仿受害者熟悉的人或同事的聲音和面部表情,掀起新一輪網絡詐騙熱潮,受害者難以區分真假,往往會墮入陷阱。
我們常常聽到有騙徒致電一些老人家,假扮其親友並聲稱被綁架,進行詐騙;又例如,曾聽說某間公司的CFO(財務總監),接到一個疑似來自公司CEO(行政總裁)的電話,要求他緊急轉賬等等,這些電話可能都是由騙徒透過Deepfake偽造聲音和語調,再假扮受害者熟悉的人致電,結果信以為真而被騙。由於這些偽造影片和聲音逼真度愈來愈高,傳統的安全驗證方法開始出現漏洞。
我們需明白,Deepfake與其他技術一樣,有着許多正當的應用,例如電影製作、AI助理,甚至教育領域等,同時亦需要認識到,隨着技術的普及,帶來的風險正在增加。

Deepfake是一把雙刃劍,我們需學習如何適當地使用,避免讓其成為破壞社會的工具。
因應全新詐騙技術的出現,有必要加強數據安全措施,例如創造更強大的驗證系統,以及進行更深入的人工智能教育。世界上並沒有任何一種技術絕對安全,所以我們需持續學習,以適應及防止新興科技衍生的風險和威脅。此外,我們亦要制定創新策略及工具,保護自己與社會。在享受科技帶來便利的同時,必須時刻保持警惕,才能確保資訊安全,避免犯罪分子利用科技進行各種不法活動,破壞社會安寧。
更多方保僑文章:
支持EJ Tech

