All posts by 信報財經新聞
-
防AI不當行為|OpenAI研鏈式思考防「智能叛變」
美國人工智能(AI)初創OpenAI周一(10日)發表研究論文,探討如何利用「鏈式思考」(Chain-of-Thought)技術,監控大型語言模型(LLM)的推理過程,檢測並防止不當行為發生。
- Posted March 12, 2025
-
本地創科動態|科大綠色製冷 15分鐘降10度
香港科技大學團隊研發全球首台千瓦級彈卡製冷裝置,在攝氏31度高溫的室外環境下,僅需15分鐘便能把室內溫度,穩定在攝氏21度至22度的區間,並實現零溫室氣體排放,為商業化應用邁出關鍵一步。
- Posted March 12, 2025
-
AI解謎失敗|CIA雕塑謎題 AI暫未能破解
在美國中央情報局(CIA)總部外面,擺放一座名為克里普托斯(Kryptos)的金屬雕塑,近年不少人嘗試以人工智能(AI),以科技破解當中的玄機。
- Posted March 12, 2025
-
AI搜尋犯錯|美大學測試 Grok 3錯誤達94%
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」 美國哥倫比亞大學旗下「托姆數碼新聞中心」,測試了8種工具即時搜尋功能的生成式人工智能(GenAI)工具,分別是ChatGPT Search、Perplexity、Perplexity Pro、DeepSeek Search、Copilot、Grok 2 Search、Grok 3 Search及Gemini,以驗證其準確檢索及引用新聞的能力。 8種工具 逾六成錯引文章 為評估聊天機械人是否準確,研究人員採取一項控制實驗,首先從20個出版商隨機抽出10篇新聞。下一步,人手從每篇文章中,提取特定段落用作查詢。每個AI的任務是識別文章的標題、原始發布者、出版日期及網址。測試後發現,六成以上查詢結果,引用了錯誤的文章;Perplexity有37%查詢答錯,Grok 3錯誤率高達94%。 研究人員同時發現,無法準確回應的問題,聊天機械人通常不會回答,反而以驚人的信心,提供不正確或推測性的答案,卻很少使用「看起來」、「有可能」、「也許」等字眼,令用戶難以分辨準確與否的資訊。 此外,多個聊天機械人在測試時,似乎繞過「機械人排除協議」,令出版商對內容失去決定權,例如是否被納入搜尋,或用作AI模型的訓練資料。以《今日美國報》(USA Today)為例,該報社封鎖了ChatGPT爬蟲機械人,但機械人仍引用雅虎重新發布的文章。
- Posted March 12, 2025
-
AI安全|六AI語音複製工具 保障如虛設 聲音授權存漏洞 易遭騙徒冒用
生成式人工智能(GenAI)技術成熟,上傳幾秒鐘錄音樣本,即可模仿說話人的口吻。美國著名消費品評測雜誌《消費者報告》周一提到,他們調查網上6款公開的AI語音複製工具,多數平台保障條款形同虛設,可在當事人不知情下複製其聲音。
- Posted March 12, 2025
-
Deep Research簡化研究用後感(黃岳永)
隨着生成式人工智能(Generative AI)的演進,由OpenAI開發的AI模型已經從基本的ChatGPT,發展到ChatGPT 4的多個後代。
- Posted March 11, 2025
-
AI設計獎|西班牙南韓藝術家獲AI設計獎
美國矽谷舉辦首屆「人工智能設計獎」(The AI Design Awards),評審團來自谷歌(Google)、微軟(Microsoft)、字節跳動(ByteDance)等科企代表。
- Posted March 11, 2025