美光正式送樣業界高容量 SOCAMM2 模組,滿足 AI 數據中心對低功耗 DRAM 的需求
關鍵詞: 美光科技 SOCAMM2 低功耗內存 AI數據中心
在當今時代,人工智能(AI)實現了前所未有的創新和發展,整個數據中心生態系統正在向更節能的基礎設施轉型,以支持可持續增長。隨著內存在 AI 系統中逐漸發揮越來越重要的作用,低功耗內存解決方案已成為這一轉型的核心。美光科技股份有限公司(納斯達克股票代碼:MU)近日宣布其 192GB SOCAMM2(small outline compression attached memory modules,小型壓縮附加內存模塊)已正式送樣,以積極拓展低功耗內存在 AI 數據中心的廣泛應用。2025 年 3 月,美光發布了業界首款 LPDRAM SOCAMM,而新一代 SOCAMM2 則在此基礎上實現了功能的進一步拓展,在相同的規格尺寸中實現 50% 的容量提升,增加的容量可以將實時推理工作負載中首個 token 生成時間(TTFT)顯著縮短 80% 以上 。192GB SOCAMM2 采用美光領先的 1-gamma DRAM 制程技術,能效提高 20% 以上 ,有助于實現大型數據中心集群的電源設計優化。這一能效提升在全機架 AI 安裝中尤為顯著,可配置超過 40TB 的 CPU 附加低功耗 DRAM 主存儲 。SOCAMM2 的模塊化設計提升了可維護性,并為未來的容量擴展奠定了基礎。
基于與 NVIDIA 的五年合作,美光率先將低功耗服務器內存引入數據中心使用。SOCAMM2 為 AI 系統的主存儲帶來了 LPDDR5X 超低功耗和高帶寬的內在優勢。SOCAMM2 的設計旨在滿足大規模 AI 平臺不斷擴展的需求,提供 AI 工作負載所需的高數據吞吐量,同時實現新的能效水平,并為 AI 訓練和推理系統設定新標準。這些優勢的結合將使 SOCAMM2 成為未來幾年業界領先 AI 平臺的關鍵內存解決方案。
美光資深副總裁暨云端內存事業部總經理 Raj Narasimhan 表示:“隨著 AI 工作負載變得更加復雜而嚴苛,數據中心服務器必須提升效率,為每瓦特的功率提供更多 tokens。憑借在低功耗 DRAM領域公認的領先地位,美光能確保我們的 SOCAMM2 模塊提供所需的數據吞吐量、能效、容量和數據中心級別的品質,這些對于驅動下一代 AI 數據中心服務器至關重要。”
通過專門的設計功能和增強測試,美光 SOCAMM2 產品從最初為手機設計的低功耗 DRAM 升級為數據中心級解決方案。多年來,美光在高質量數據中心 DDR 內存方面的豐富經驗,使 SOCAMM2 具備滿足數據中心高標準應用所需的質量與可靠性。
與同等能效的 RDIMM 相比,SOCAMM2 模塊的能效提高了三分之二以上 ,同時將其性能封裝到三分之一大小的模塊中 ,不僅優化了數據中心占地面積,還最大限度地提高了容量和帶寬。SOCAMM 的模塊化設計和創新的堆疊技術提高了可維護性,并有助于液冷服務器的設計。
美光一直是 JEDEC SOCAMM2 規范制定的積極參與者,并與行業合作伙伴密切合作,共同推動標準演進,加快 AI 數據中心的低功耗應用,以助力整個行業的能效提升。目前,SOCAMM2 樣品已送樣客戶,單一模組容量高達 192GB,速率達 9.6 Gbps,后續量產作業將配合客戶的產品推出日程規劃。