Don't Miss
MoE模型
By 信報財經新聞 on April 8, 2025
原文刊於信報財經新聞「CEO AI⎹ EJ Tech」
「混合專家」(Mixture of Experts)模型,是一種機器學習架構,特別是在深度學習領域廣泛應用。通過把任務分解給多個專門的子模型(稱為專家),以提高模型的效率和性能,再由一個「門控網絡」(Gating Network),決定每個輸入應該由哪個專家處理。
支持EJ Tech

