You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

文化偏見

By on March 3, 2025

原文刊於信報財經新聞「關鍵字

在AI的設計過程中,因訓練數據、學習方式或運算法的偏頗,導致結果偏向某些族群、語言或社會行為,影響其公平性與普適性。例如英語主導模型,就未必能正確理解亞洲人名、地名或習慣。一般解決方法是在基底模型上,用該文化或地區數據集作進一步微調。

英語主導模型,未必能正確理解亞洲人名、地名或習慣。(shutterstock網上圖片)

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們