You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI代勞損信任|哈佛教授提醒 易遭識破損信任 企業CEO與員工交流 忌以AI代勞

By on April 17, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報

最新一期《哈佛商業評論》【圖】刊登文章,探討企業高層及行政總裁(CEO)使用人工智能(AI)工具代筆,或引發對內部信任的損害。哈佛商學院教授喬杜里(Prithwiraj Choudhury)提醒,「生成式AI是個節省行政總裁大量時間的好工具,但我不認為你可以放由它完全自行運作。即使它只答錯一個問題,也可能令你承受巨大的意外後果。」

難重現個人風格微細情感

文章提到喬杜里帶領的研究團隊的一項實驗,他們先訓練出模仿某公司高管文風的AI聊天機械人,再徵集員工問題交由本人與AI解答,結果約六成員工能分辨AI產出內容,且普遍認為訊息有欠實用。此外,當員工誤認真人訊息為AI產出時,對訊息的評價也明顯下降。這項研究證明,人們不單在乎訊息內容,更留意說話者是否真實存在。

哈佛商學院教授喬杜里認為,AI愈來愈能模仿人們說話時,真誠的情感就顯得更重要。(網上圖片)

事實上,「請槍」AI帶來的問題已不限於法規、倫理範疇,而是直接影響到企業的日常管治。領導者的語氣、風格,本來就屬於一種無形的管理資產,而目前AI技術看來仍難重現個人風格的微細情感。當領導者使用AI撰寫訊息,那麼無論內容多麼合理、正確,都可能會因為缺乏「人味」而削弱影響力。特別是在員工熟悉領導風格的情況下,AI模仿十分容易穿崩,例如在前述實驗裏,任職3年以上員工的識別率就比較高。

關於企業高層如何使用AI,喬杜里亦提出了3項建議:一是保持透明度,因為用AI協助撰寫一旦被發現,便有可能引發信任危機,讓員工質疑所有訊息真實性;二是選擇合適場景,形式化、公事性的溝通較宜使用AI,但人際間的個人化訊息則不適合;三是避免照單全收,畢竟AI訊息可能過度依賴行話(Jargon)、缺乏語境理解,用戶有需要審查文字與調整語氣,確保語言精準且富人性。

除了企業內部,AI代筆對外風險同樣不容忽視。哈佛團隊後續的另一項研究,便是招募公開人士,閱讀企業總裁在業績電話會議所作的回答,當中依舊夾雜真實與AI內容,結果發現人們若認為答案由AI產生時,就傾向評價其內容作用不大;相反若以為是真人撰寫的話,就會有較高評價,而實際作者究竟是哪一方倒不重要。這種情況反映,即使AI真能提供有用資訊,人的感知還是會大幅影響其接受程度。

對外溝通稍有不慎恐淪話柄

在香港也不乏類似情況,像近月香港Cityline在Coldplay演唱會售票系統出錯後,選擇以AI生成虛擬模特兒,製作中英雙語道歉影片,惟影片推出後遭強烈反彈指毫無誠意,批評其語調僵硬,毫無情感,未明示為AI製作,陷入更大規模公關災難。至於其餘因校對不慎等緣故,導致出現明顯AI生成痕跡的圖片或文章,更是經常成為網民笑柄。

這次哈佛研究的對象,正是知名軟件公司Zapier行政總裁Wade Foster,他稱,「當我使用生成式AI,我會決定是否採用其產出內容,我必須對訊息的每一句話負責。」或許正因AI愈來愈能模仿人們說話時,真誠的情感就顯得更重要,但企業單以AI生成溝通、只講效率,最終將失去靈魂。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們