You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

All posts tagged "MoE"

  • MoE模型

    「混合專家」(Mixture of Experts)模型,是一種機器學習架構,特別是在深度學習領域廣泛應用。通過把任務分解給多個專門的子模型(稱為專家),以提高模型的效率和性能,再由一個「門控網絡」(Gating Network),決定每個輸入應該由哪個專家處理。

    • Posted April 8, 2025
    • 0