DeepSeek開源V3.2-Exp實驗模型!中國企業快速完成Day 0適配
鉅亨網新聞中心
中國人工智慧(AI)技術公司 DeepSeek 近日宣布,開源其最新實驗版模型 DeepSeek-V3.2-Exp。DeepSeek-V3.2-Exp 一經推出,便在中國產業界與開發者圈子中引起熱烈討論。多家中國國內企業迅速完成對 DeepSeek 模型的適配與上線。

該模型首次引入稀疏注意力(DeepSeek Sparse Attention) 機制,在幾乎不影響模型輸出效果的前提下,大幅提升長文本訓練與推理效率,被 DeepSeek 稱為「邁向新一代架構的中間步驟」。
華為計算公眾號發布消息稱,其昇騰團隊已基於 vLLM/SGLang 推理框架完成 Day 0 適配部署,並向開發者開源所有推理程式碼及算子實現。
在昇騰設備上,DeepSeek-V3.2-Exp 可支援 128K 長序列輸出,保持 首 token 輸出耗時(TTFT)低於 2 秒,以及 每 token 輸出耗時(TPOT)低於 30 毫秒的高速推理生成。
華為雲也率先上線 DeepSeek-V3.2-Exp,並使用 CloudMatrix 384 超節點提供推理服務,確保模型在雲端環境下的高效運行。
在 DeepSeek 宣布模型開源後短短 4 分鐘,寒武紀 (688256-CN) 也發文稱已完成 Day 0 適配,並開源大模型推理引擎 vLLM-MLU 源碼。
寒武紀利用 Triton 算子與 BangC 融合算子進行快速適配與性能優化,並基於計算與通信的並行策略,達成高效計算性能。
值得注意的是,DeepSeek-V3.2-Exp 模型尺寸達 671GB,僅下載就需數小時。寒武紀在發布前即啟動適配,顯示其對 DeepSeek 模型的高度重視。
海光信息 (688041-CN) 的深度計算處理器(DCU) 也率先完成 Day 0 級高效適配,確保大模型算力「零等待」部署,凸顯中國國內硬體企業對 DeepSeek AI 模型的快速響應能力。
DeepSeek 官方推文中,不少開發者分享了使用體驗。有使用者表示,在 10 萬 token 的程式碼庫 上測試 DeepSeek-V3.2-Exp 時,速度提升非常明顯。
也有網友感嘆,DeepSeek API 幾乎等同於免費。部分社群成員認為,這款模型的推出,或許象徵著第二個 DeepSeek 時刻即將到來。
延伸閱讀
- 講座
- 公告
上一篇
下一篇