Don't Miss
All posts tagged "MoE"
-
MoE模型
「混合專家」(Mixture of Experts)模型,是一種機器學習架構,特別是在深度學習領域廣泛應用。通過把任務分解給多個專門的子模型(稱為專家),以提高模型的效率和性能,再由一個「門控網絡」(Gating Network),決定每個輸入應該由哪個專家處理。
- Posted April 8, 2025