AI、HPC驅動 研調估今年HBM需求量大增近6成
鉅亨網記者林薏茹 台北 2023-06-28 18:26
據 TrendForce 研究顯示,目前高階 AI 伺服器 GPU 搭載 HBM(高頻寬記憶體) 已成主流,預估 2023 年全球 HBM 需求量將年增近 6 成、來到 2.9 億 GB ,2024 年將再成長 3 成。
台廠方面,目前愛普 *(6531-TW)已握有能與 HBM 抗衡的異質整合高頻寬記憶體 (VHM) 產品,較 HBM 記憶體頻寬多出近十倍,隨著 AI 趨勢升溫,對記憶體需求持續增加,法人看好可望率先受惠此波 AI 熱潮。
華邦電 (2344-TW) 也因 SoC 客戶需要中階運算力產品,找上華邦電合作開發 4-8GB 的 3D TSV DRAM、又名 CUBE(客製化高頻寬記憶體);華邦電可協助 SoC 設計與 2.5D/3D 後段製程封裝連結,未來將與 SoC 廠、封裝廠三方合作,預計 2024 年量產,主要應用在 HPC、伺服器、AI、邊緣運算等領域。
為解決高速運算下,記憶體傳輸速率受限於 DDR SDRAM 頻寬而無法同步成長的問題,HBM 應運而生,其革命性傳輸效率是讓核心運算元件充分發揮效能的關鍵。
TrendForce 預估到 2025 年,全球若以等同 ChatGPT 的超大型 AIGC 產品 5 款、Midjourney 的中型 AIGC 產品有 25 款,及 80 款小型 AIGC 產品估算,上述所需的運算資源至少為 145,600~233,700 顆 NVIDIA A100 GPU,再加上新興應用如超級電腦、8K 影音串流、AR/VR 等,也將同步提高雲端運算系統的負載,顯示出高速運算需求高漲。
HBM 擁有比 DDR SDRAM 更高的頻寬和較低的耗能,是建構高速運算平台的最佳解決方案,以 HBM3 與 DDR5 為例,前者頻寬是後者的 15 倍,並可透過增加堆疊的顆粒數量來提升總頻寬。此外,HBM 可以取代一部分的 GDDR SDRAM 或 DDR SDRAM,更有效地控制耗能。
TrendForce 表示,目前主要由搭載 NVIDIA A100、H100、AMD MI300,以及大型 CSP 業者如 Google、AWS 等自主研發 ASIC 的 AI 伺服器成長需求較為強勁,2023 年 AI 伺服器出貨量預估近 120 萬台,年增近 38%,AI 晶片出貨量同步看漲,可望成長突破 5 成。
- 安全可靠的多資產平台!靈活槓桿 免費模擬
- 掌握全球財經資訊點我下載APP
鉅亨贏指標
了解更多#動能指標下跌股
延伸閱讀
上一篇
下一篇