群聯發表多層級記憶體架構技術 搶邊緣AI推論商機
鉅亨網記者魏志豪 台北
NAND 控制晶片暨解決方案大廠群聯 (8299-TW) 今 (17) 日宣布,於 GTC 展會展示 aiDAPTIV 多層級記憶體架構技術 (multi-tier memory architecture),其專為邊緣 AI 應用打造,可在輝達平台驅動的本地邊緣 AI 系統中,支援更大型 AI 模型與長上下文 (long-context) 推論。

群聯執行長潘健成表示,傳統記憶體管理機制並非為 AI 應用所設計,而今日的 AI 基礎設施也已無法再依賴通用型的記憶體管理方式。透過 aiDAPTIV 多層級記憶體架構技術,打造一個具備 AI 感知能力的記憶體架構 (AI-aware architecture),能在多層級記憶體之間延伸 AI 有效記憶體容量,使本地邊緣 AI 平台在不增加 GPU 硬體的情況下,也能支援更大型模型與長上下文推論,協助企業在維持邊緣 AI 工作負載的同時,更可有效地規劃 AI 基礎設施投資。
群聯指出,目前產業正面臨日益嚴峻的記憶體供給短缺狀況,而對 AI 就緒平台 (AI-ready platforms) 的需求卻持續快速攀升。由於針對專有資料 (proprietary data) 進行微調 (fine-tuning) 與推論 (inference) 需要大量運算與記憶體資源,也使得企業在投資 AI 基礎設施與邊緣 AI 設備時面臨挑戰。
隨著 AI 解決方案成本上升與 AI 工作流程瓶頸增加,也進一步拖慢企業將 AI 創新轉化為實際營收的上市時程。為了解決此問題,群聯推出 aiDAPTIV 多層級記憶體架構技術,透過搭載 aiDAPTIV 技術的群聯企業級 Pascari SSD 作為全新的 AI 記憶體層級,aiDAPTIV 技術能夠在 GPU 記憶體、系統 RAM 與 NAND Flash 快閃記憶體之間,智慧延伸並管理 AI 運算的工作記憶體。
隨著 NVIDIA 的 AI 基礎設施持續提升 GPU 記憶體能力以支援資料中心推論工作負載,aiDAPTIV 技術利用專為持續分頁 (sustained paging) 與上下文保存 (context retention) 而優化設計的高耐久度快閃記憶體 (high-endurance NAND flash),支援在固定 GPU 硬體配置下進行記憶體密集需求的 AI 推論 (memory-intensive inference) 與 AI 模型微調工作負載。
群聯透過 aiDAPTIV 的多層級記憶體架構技術,企業可在本地邊緣系統上運作日益成長的 AI 工作負載,並同時兼顧資料隱私並提升長期 AI 基礎設施投資效率。
在 NVIDIA GTC 2026 展會現場,群聯展示多項合作夥伴設備,包括搭載 NVIDIA GB10 Grace Blackwell 處理器的筆記型電腦、工作站與系統,以及採用 NVIDIA GeForce RTX 50 Series 與 NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition GPU 的平台。
鉅亨贏指標
了解更多延伸閱讀
- 去年Q4 EPS 21.74元創新高 現階段存貨衝破500億元
- CSP客戶主動找上門 今年企業級SSD大成長 Q1營收比重衝3成
- 〈輝達GTC大會〉鴻海秀Vera Rubin NVL72機櫃 公開AI工業人形機器人及MDC布局
- 英特爾Xeon 6 CPU獲輝達採用 導入DGX Rubin NVL8系統
- 講座
- 公告
上一篇
下一篇