You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

DeepSeek掀生態整合戰(方保僑)

By on March 17, 2025

本文作者方保僑為香港資訊科技商會榮譽會長,為《信報》撰寫專欄「科網人語」

2025年初,中國AI新創公司深度求索(DeepSeek)憑藉開源大型語言模型(LLM)DeepSeek-R1與V3系列,引起全球科技業震盪。DeepSeek訓練成本僅557萬美元,卻能逼近OpenAI的GPT-4o效能。然而,更值得關注的現象是,騰訊(00700)、阿里巴巴(09988)、百度(09888)、商湯(00020)等科技巨頭,紛紛選擇接入DeepSeek技術。這背後不僅是技術競爭力的消長,更反映中國AI產業從單打獨鬥,邁向生態協作的戰略轉向。

DeepSeek的核心競爭力,關鍵在於三大技術創新,混合專家架構(MoE)、FP8混合精度訓練,以及多Token預測機制。MoE架構讓6710億參數的模型,每次推理僅須激活370億參數,大幅降低運算負擔;FP8精度則壓縮記憶體需求,提升圖像處理器(GPU)使用效率;而多Token預測突破傳統逐字生成的限制,加速推理速度。

DeepSeek的核心競爭力,關鍵在於其三大技術創新。(shutterstock網上圖片)

更重要的是,DeepSeek選擇全面開源,企業可直接調用應用程式介面(API)或部署地端模型,避免資料外洩至公有雲。這種基礎建設化的策略,讓DeepSeek如同AI領域的「水電煤」,成為生態系統不可或缺的底層支援。

中國科技企業雖早投入AI研發,卻面臨兩大樽頸,高昂訓練成本與資料合規風險。以百度文心一言為例,其訓練需動用上萬顆頂級GPU,成本突破數億美元,且模型效能受限於中美晶片戰下的硬件制裁。反觀DeepSeek僅以2000顆次級晶片完成訓練,並透過「知識蒸餾」技術,將大模型能力移植至Qwen、Llama等開源架構,讓企業能以低成本微調出產業專用模型。

百度文心一言的訓練需動用上萬顆頂級GPU,成本突破數億美元。(shutterstock網上圖片)

另一方面,中國政府對資料跨境流動的監管日趨嚴格,企業須確保AI服務符合《數據安全法》。DeepSeek的本地部署方案,正好解決此問題。這種可控的開源模式,讓企業既能享受AI紅利,又免於合規爭議,因而吸引鼎新等企業服務商合作開發地端AI一體機。

DeepSeek的成功,標誌着AI競賽從晶片軍備賽轉向生態整合戰。其開源策略不僅降低技術門檻,更重塑產業鏈價值分配,晶片龍頭如輝達的壟斷地位被動搖,而擅長模型優化與場景落地的企業將掌握新話語權。當開源成為武器,贏家不再是擁有最多晶片的公司,而是最能動員生態系統的人。

更多方保僑文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們