menu-icon
anue logo
鉅亨傳承學院鉅亨號鉅亨買幣
search icon

美股

美光推256GB SOCAMM2 容量升三成 AI伺服器記憶體迎新突破

鉅亨網新聞中心

美光 (MU-US) 宣布在企業級記憶體領域取得新突破。退出消費級記憶體與固態硬碟 ( SSD ) 市場後,公司將重心轉向資料中心與人工智慧 ( AI ) 應用,並於當地時間 3 月 3 日發表業界首款單一 256GB SOCAMM2 記憶體模組,已開始向客戶出樣與出貨。

cover image of news article
(圖:REUTERS/TPG)

該產品搭載全球首款單晶片 32Gb LPDDR5X DRAM 顆粒,在容量與功耗表現上實現新進展。相較前一代最高 192GB 的 SOCAMM2 模組,新產品容量提升約三分之一,進一步強化資料中心對高密度記憶體的需求支援能力。


SOCAMM2 為專為資料中心、高效能運算 (HPC) 與 AI 設計的低功耗記憶體模組,基於 LPDDR5/5X 標準並結合 CAMM 模組化架構,未來亦有望支援 LPDDR6 標準。其優勢在於低功耗、節省空間與更易維護,並填補高頻寬記憶體 ( HBM ) 與傳統 DDR 之間在效能與成本上的落差。

在實際部署方面,256GB SOCAMM2 於 8 通道單路伺服器架構下,可支援最高 2TB 系統記憶體容量;若應用於 12 通道雙路伺服器,系統容量則可擴充至 6TB,有助 AI 伺服器處理超長上下文視窗與複雜推理任務。

美光指出,在大型語言模型 (LLM) 長文本推理場景中,新模組可將「首字生成時間」縮短至原先的 2.3 倍速度;在僅使用 CPU 的應用情境下,能源效率最高提升達 3 倍,顯示其在效能與功耗平衡上的優勢。

公司同時透露,正與輝達緊密合作開發下一代記憶體解決方案。輝達下一代 AI 超級運算平台 Vera Rubin,將成為首批採用 SOCAMM2 記憶體標準的產品之一。該記憶體模組預計於 GTC 2026 大會上正式亮相。

隨著 AI 模型規模持續擴大、推理需求升溫,資料中心對高容量、低功耗記憶體的依賴日益加深。美光此次技術突破,被視為其轉型企業級與 AI 市場後的重要里程碑。


section icon

鉅亨講座

看更多
  • 講座
  • 公告

    Empty
    Empty