Samsung,作為全球最大的內存芯片製造商,正式發佈其第二代小型外形壓縮附加內存模組(SOCAMM2)。這款內存模組與高帶寬內存(HBM)類似,主要應用於人工智能伺服器,但其設計更注重能源效率。
SOCAMM2 內存模組提供比傳統內存更高的帶寬和改進的能效。這些模組的靈活性也為伺服器系統帶來了便利,因為 SOCAMM2 內存模組可以單獨拆卸,以便升級到更新的內存,而無需更換整個板卡。Samsung 的 SOCAMM2 模組採用多個 LPDDR5X DRAM 芯片製成,內存帶寬是傳統註冊雙列直插內存模組(RDIMM)的兩倍,同時功耗僅為其 55%。
這些新的內存模組為需要性能和效率的伺服器提供了一種替代方案。此外,由於其尺寸更小和橫向佈局(與 RDIMM 的縱向佈局相比),SOCAMM2 內存模組在系統中騰出了更多空間,能夠更好地放置散熱器和改善氣流。
Samsung 表示,正與 Nvidia 緊密合作,以優化 SOCAMM2 內存,適應 Nvidia 的 AI 基礎設施。該公司確保其新內存能夠滿足下一代推理系統 Vera Rubin 的效率和性能需求,該系統預計將於 2026 年發佈。同時,Samsung 也在 AI 生態系統中進行合作,以促進低功耗內存在伺服器環境中的應用。




