用GPU建資料中心太貴? 輝達黃仁勳:買越多、省越多
鉅亨網記者魏志豪 台北
IC 設計大廠輝達 (NVDA-US) 執行長黃仁勳今 (29) 日在 COMPUTEX 舉辦主題演講,內容圍繞人工智慧 (AI),除推出最新 GH200 超級晶片,也比較資料中心成本架構,直言以 GPU 建置的資料中心將遠低於 CPU,強調買越多、省越多 (The more you buy, the more you save.)。

黃仁勳指出,儘管 CPU 過去幾年運算速度不斷提升,但進入 AI 時代後,以 CPU 為運算基礎的時代已經結束,現在大型語言模型 (LLM) 需要更新的解決方案。
黃仁勳舉例,假設建置資料中心預算為 1000 萬美元,可以選擇建置 1 座搭載 960 顆 CPU、功耗達 11GW 的資料中心,抑或是選擇建置 1 座有 48 顆 GPU、功耗僅需 3.2GW 的資料中心,且 LLM 資料處理量是 CPU 的 44 倍。
黃仁勳也更換比較基準,若以處理同樣資料量的大型語言模型 (LLM) 來看,可以選擇斥資 1000 萬美元,建置 1 座搭載 960 顆 CPU、功耗達 11GW 的資料中心,抑或是選擇只花費 40 萬美元,建置 1 台需要 2 顆 GPU、功耗僅需 0.13GW 的資料中心。
因此,黃仁勳也語帶詼諧指出,GPU 將為客戶省好多錢,直言買越多、省越多,後續也在介紹 AI 時,透過語音輸入指令,請 AI 幫忙創作歌曲、歌詞等,更將現場變成大型卡拉 OK 包廂,邀請現場觀眾與他一起唱出 AI 的創作。
輝達此次在會中推出最新 DGX GH200 AI 超級電腦,透過搭載 Grace Hopper 超級晶片與 NVLink Switch System,將協助客戶生成式 AI 語言應用、推薦系統及資料分析工作負載,開發巨型的下一代模型。
- 揭開全球晶片交響樂的幕後力量
- 掌握全球財經資訊點我下載APP
延伸閱讀
- 美超微:輝達H100伺服器需求加溫 年底出貨增25%
- 大撒錢有理!黃仁勳:AI基建還有7到8年 算力需求只會持續攀升
- 〈美股盤後〉輝達回神大漲 道瓊狂飆逾1200點 首次突破50000點大關
- AI燒錢不手軟!今年全球晶片銷售有望衝破1兆美元
- 講座
- 公告
上一篇
下一篇