美光正式送樣業界高容量 SOCAMM2 模組,滿足 AI 數據中心對低功耗 DRAM 的需求
關鍵詞: 美光科技 SOCAMM2 低功耗內存 AI數據中心
在當今時代,人工智能(AI)實現了前所未有的創新和發展,整個數據中心生態系統正在向更節能的基礎設施轉型,以支持可持續增長。隨著內存在 AI 系統中逐漸發揮越來越重要的作用,低功耗內存解決方案已成為這一轉型的核心。美光科技股份有限公司(納斯達克股票代碼:MU)近日宣布其 192GB SOCAMM2(small outline compression attached memory modules,小型壓縮附加內存模塊)已正式送樣,以積極拓展低功耗內存在 AI 數據中心的廣泛應用。2025 年 3 月,美光發布了業界首款 LPDRAM SOCAMM,而新一代 SOCAMM2 則在此基礎上實現了功能的進一步拓展,在相同的規格尺寸中實現 50% 的容量提升,增加的容量可以將實時推理工作負載中首個 token 生成時間(TTFT)顯著縮短 80% 以上 。192GB SOCAMM2 采用美光領先的 1-gamma DRAM 制程技術,能效提高 20% 以上 ,有助于實現大型數據中心集群的電源設計優化。這一能效提升在全機架 AI 安裝中尤為顯著,可配置超過 40TB 的 CPU 附加低功耗 DRAM 主存儲 。SOCAMM2 的模塊化設計提升了可維護性,并為未來的容量擴展奠定了基礎。
基于與 NVIDIA 的五年合作,美光率先將低功耗服務器內存引入數據中心使用。SOCAMM2 為 AI 系統的主存儲帶來了 LPDDR5X 超低功耗和高帶寬的內在優勢。SOCAMM2 的設計旨在滿足大規模 AI 平臺不斷擴展的需求,提供 AI 工作負載所需的高數據吞吐量,同時實現新的能效水平,并為 AI 訓練和推理系統設定新標準。這些優勢的結合將使 SOCAMM2 成為未來幾年業界領先 AI 平臺的關鍵內存解決方案。
美光資深副總裁暨云端內存事業部總經理 Raj Narasimhan 表示:“隨著 AI 工作負載變得更加復雜而嚴苛,數據中心服務器必須提升效率,為每瓦特的功率提供更多 tokens。憑借在低功耗 DRAM領域公認的領先地位,美光能確保我們的 SOCAMM2 模塊提供所需的數據吞吐量、能效、容量和數據中心級別的品質,這些對于驅動下一代 AI 數據中心服務器至關重要?!?/span>
通過專門的設計功能和增強測試,美光 SOCAMM2 產品從最初為手機設計的低功耗 DRAM 升級為數據中心級解決方案。多年來,美光在高質量數據中心 DDR 內存方面的豐富經驗,使 SOCAMM2 具備滿足數據中心高標準應用所需的質量與可靠性。
與同等能效的 RDIMM 相比,SOCAMM2 模塊的能效提高了三分之二以上 ,同時將其性能封裝到三分之一大小的模塊中 ,不僅優化了數據中心占地面積,還最大限度地提高了容量和帶寬。SOCAMM 的模塊化設計和創新的堆疊技術提高了可維護性,并有助于液冷服務器的設計。
美光一直是 JEDEC SOCAMM2 規范制定的積極參與者,并與行業合作伙伴密切合作,共同推動標準演進,加快 AI 數據中心的低功耗應用,以助力整個行業的能效提升。目前,SOCAMM2 樣品已送樣客戶,單一模組容量高達 192GB,速率達 9.6 Gbps,后續量產作業將配合客戶的產品推出日程規劃。