You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

MoE模型

By on April 8, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech

「混合專家」(Mixture of Experts)模型,是一種機器學習架構,特別是在深度學習領域廣泛應用。通過把任務分解給多個專門的子模型(稱為專家),以提高模型的效率和性能,再由一個「門控網絡」(Gating Network),決定每個輸入應該由哪個專家處理。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們