You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

Vocofy|學者倡採用音頻水印防電騙

By on December 2, 2024

原文刊於信報財經新聞「EJ Tech 創科鬥室

騙徒手法層出不窮,近期香港就有內地學生遭遇假冒公安的人工智能(AI)語音詐騙。香港中文大學電子工程學系博士生田鈺笙,日前在東亞銀行金融科技日表示,基於AI的聲音技術,如語音合成系統(TTS)及語音編輯,當初旨在方便溝通及創作效率,如今卻被不法分子用來詐騙。

田鈺笙解釋,電訊詐騙其實有跡可循,犯罪分子主要透過電話或社媒平台,竊取事主聲音後再作竄改。

以語音編輯為例,首先以一段真實的錄音,然後透過AI技術,無縫地添加或刪減一些語句;有關技術門檻亦不高,隨便上網搜尋一下,就能找到不少開源工具。

AI機械化的回應模式,讓人類難以感受真實的情感交流(路透資料圖片)

儘管如此,以上做法並非全無破綻。田鈺笙舉例,其中一個簡單方法是,通過設置一些專屬「暗號」,確認來自電話的聲音,是否來自親友本人。

AI發展一日千里,田鈺笙直言,這技術始終無法複製一切。現時有研究人員嘗試以傳感器,監測講話者的呼吸,甚至心跳等生理反應,以區分真人與電腦生成的語音。

此外,開發者們亦可以把音頻水印,強制性嵌入AI生成的音頻中。如此一來,當有人試圖利用AI模型,創建音頻以達至不良目的時,便可檢查水印以驗證真實性。中大電子工程學系教授李丹補充,為防止電話詐騙,電訊公司不妨把技術應用於通話之中。

促立法監管深偽技術

田鈺笙形容,與音頻深偽技術鬥爭過程漫長,研究人員都想盡方法研發更強大的反制技術。另一方面,針對音頻深偽技術的監管和立法亦相當重要。她提到,知名語音合成平台ElevenLabs目前已禁止生成政客的聲音,就是一個很好的範例。

相關文章:Vocofy AI建原聲模型 實現語障患者心願

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們