menu-icon
anue logo
鉅樂部鉅亨號鉅亨買幣
search icon
雜誌

散熱族群入列熱門板塊

先探投資週刊 2023-04-27 14:32

為因應5G、AI等應用所帶來的龐大資料量,使得伺服器晶片的效能、耗電功率不斷上升,散熱產業的最新秘密武器「液冷技術」將成市場新寵兒。

【文/莊家源】

近年來在新興應用如5G、AI、雲端等帶領下,全球互聯網用戶數將從二○一八年的三九億人成長至二三年的五三億人,年複合成長達六%,也帶動連網設備數量大幅成長,北美四大雲端服務供應商(CSP)如 Google、AWS、Meta、Microsoft 等持續大量投入伺服器相關設備建置,自一六年以來大型資料中心數量的年複合成成長達十三%。

伺服器成長趨勢明確

雖然今年伺服器產業受到高通膨、高利率,導致全球經濟成長放緩,迫使企業資本支出下修,並延後設備更新,雲端服務供應商同步下修今年伺服器採購量,且品牌業者 Dell 與 HPE 也調降產量。研究機構 TrendForce 已二度下修今年全球伺服器出貨量至一四四三萬台,年增率一.三一%,但相比手機、電腦等消費性應用,伺服器產業仍在眾科技領域中維持成長。

在AI伺服器部分,TrendForce 表示截至去年為止,搭載GPU的AI伺服器出貨量已占整體伺服器比重近一%,隨著今年火紅的 ChatGPT 應用持續發酵,OpenAI 正式宣布推出全新 GPT-4 的大型語言模型,Microsoft 已將 ChatGPT 導入旗下搜尋引擎 Bing,將能應付更複雜的搜尋互動,此外,也發表 Office AI 助手 Copilot,使用者能指示 Copilot 在 Word、Excel、Powerpoint、Outlook 等完成基本作業,提升工作效率。

晶片效能推升散熱需求

繪圖晶片(GPU)大廠 Nvidia 的執行長黃仁勳在今年舉辦的GTC大會中,直言人工智慧的 iPhone 時刻已經到來並展示了四款平台,有用於人工智慧影片的 Nvidia L4、用於影像生成的 Nvidia L40、用於部署大型語言模型的 Nvidia H100 NVL 與用於推薦模型的 Nvidia Grace Hopper。此外,Nvidia 也宣布將與 Google、Microsoft、Amazon、Oracle、Amgen 及多家重量級企業展開更大規模的合作。

隨著AI發展持續演進,對算力的要求更高,晶片效能越來越強大,兩大伺服器處理器業者 Intel、AMD,分別在今年與去年推出 Intel Eagle stream(代號 Sapphire Rapids、Emerald Rapids)與 AMD EPYC Genoa,其在最大功率方面分別為三五○~三七五W與三○○~四○○W,比前一代處理器多出了約四○~五○%。

另外,在GPU大廠 Nvidia 方面,也推出專為AI伺服器打造的 Nvidia DGX H100,用於處理像是 ChatGPT 的大型語言模型,與 GPT-3 使用的 Nvidia DGX A100 相比,其處理速度最高可提升十倍,而 A100 的最大功率約在二五○~四○○W,與過去的 V100 與 P100 差不多,但在最新推出的 H100 的最大功率卻高達七○○W,增加了快一倍。隨著晶片的最大功率持續增加,所帶來的散熱需求也隨之增加。

散熱模組大廠奇鋐目前在伺服器營收占比超過三○%,出貨產品包含風扇、機殼、熱板等,客戶涵蓋中系、美系,在客戶數量、市場份額也逐年墊高,今年首季營收一一八.三五億元,年減六%。

由於近年奇鋐已將營運重心由PC逐漸轉往基地台、伺服器領域,受到5G基地台需求穩定,與伺服器產品對散熱需求提升,目前奇鋐的 3D VC 解決方案,採用均熱板結合導熱管的方式,最大可排解八○○W的熱能,是業界少數能量產解高熱能的公司,且ASP相較傳統單片均熱板或熱導管高出至少一倍以上,隨著 Intel 與 AMD 伺服器新平台滲透率提升,未來伺服器將成奇鋐營運成長重要動能。(全文未完)

來源:《先探投資週刊》2245 期

更多精彩內容請至 《先探投資週刊






Empty