DeepSeek帶旺輝達GPU 庫存的禁售型號也被搶購一空
鉅亨網新聞中心 2025-02-17 09:10

陸媒引述產業人士說法,近期無論是高效能的 H 系列 GPU,或是 RTX 40 系列的高階顯示卡,輝達 (NVDA-US) 的 GPU 重新變成供不應求。
報導稱,春節後第一周,兩家中國科技企業為支撐開源大模型 DeepSeek 的推理服務,緊急向一家輝達代理商採購了 L20 GPU 算力設備。該代理商表示, 「去年,客戶下單總要反覆考慮和比價,現在連庫存的禁售型號都搶空了」。
DeepSeek 的出現讓業界反思算力泡沫,AI 訓練是否可以不再依賴大規模的高端 GPU 集群,但是隨著提供模型和使用模型的個人和企業都在爆發式增長,大量的模型推理再一次推升了對輝達 GPU 的需求。
一家 IT 廠商表示,其調用 DeepSeek 的平台在上線首日增加了上萬個用戶,伺服器幾乎崩潰,現有算力已經跟不上用戶的需求。團隊為緩解壓力,不得不緊急調配更多輝達 GPU。許多上線 DeepSeek 的平台顯示伺服器繁忙,實際上是平台提供的算力跟不上快速成長的使用者需求。
不過業界人士指出,DeepSeek 帶給產業界的震動是 AIGC 大模型訓練、推理算力消耗大幅降低。相較於模型推理,模型訓練的需求並沒有在短期內爆發式成長。
通常來說,模型能力與參數量和精度密切相關,參數量影響 AI 的知識量,精度影響 AI 的準確性和推理能力,這也是為什麼很多平台上線的 DeepSeek 看起來「智商」不足,因為背後的算力不足以支持模型在參數量和精度上達到最佳狀態。
不過,這種急迫的算力需求未必持續很久。在實際應用中,開發者通常會將超過 600B 參數量的模型進行蒸餾,壓縮到更低參數規模,再用於商業化。而 DeepSeek 發展得太快以至於團隊還來不及完成蒸餾,可能後續幾個月蒸餾好後,那些上線 DeepSeek 的企業可以節約一些推理算力。
- 如何發揮多重資產策略的最大優勢?
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇