You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI風險|Meta停止開發 高風險AI系統

By on February 5, 2025

原文刊於信報財經新聞「EJ Tech 創科鬥室

外界一直擔心人工智能(AI)技術發展太快,有天會超出人類控制。Facebook母企Meta發表新一份政策文件Frontier AI Framework(前沿人工智能框架),預告將停止開發風險過高的AI系統。

Meta發表新一份政策文件,預告停止開發風險過高的AI系統。(路透資料圖片)

根據Meta定義,有兩種AI系統風險過高,分別是「高風險」及「關鍵風險」系統,兩者都能被用於網絡安全、化學及生物攻擊,不同之處在於後者或導致「災難性」後果。

Anthropic研分類器打擊「越獄」

此外,針對以破解手段令AI模型輸出被禁內容,Claude模型製造商Anthropic開發一套新憲法分類器系統,聲稱足以過濾掉絕大多數「越獄」行為,據傳系統已承受超過3000小時攻擊。自去年8月以來,Anthropic一直透過HackerOne漏洞賞金計劃,向任何能設計出「通用越獄」人士提供1.5萬美元(約11.7萬港元)獎金。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們