在去年錯過了大部分高利潤的人工智能記憶體芯片業務後,Samsung 今年努力提升其高端記憶體芯片及生產效率。近日,Samsung 向 Nvidia 發送了第六代高帶寬記憶體(HBM4)芯片樣品,正待最終批准。現在,Samsung 準備供應另一種 AI 伺服器所需的記憶體模組。
根據報導,Samsung 將供應 Nvidia 所需的第二代小型外形壓縮附加記憶體模組 2(SOCAMM2)的一半。
根據《韓國經濟新聞》的報導,Samsung 計劃在 2026 年供應 Nvidia 所需的 SOCAMM2 模組超過一半的份額。據悉,Samsung 已向該媒體確認了其供應計劃。SOCAMM 通常被稱為二級 HBM,主要用於人工智能數據中心,Samsung 開發的第二代 SOCAMM 模組將在明年被 Nvidia 使用。
雖然 Micron 是全球首家大規模供應 SOCAMM 模組的記憶體芯片製造商,並且今年成為最大的 SOCAMM 供應商,但 Samsung 和 SK Hynix 似乎已經改善了其 SOCAMM 模組的生產。據悉,Samsung 已經確保了其第五代 DRAM(1c)芯片的穩定產量和性能,這也是 SOCAMM2 記憶體模組的主要組件。
多個 SOCAMM2 模組被放置在 Nvidia 的 Vera CPU 旁邊,該 CPU 控制著 Rubin GPU,後者在先進的人工智能處理中負責所有重任。此前,LPDDR DRAM 芯片曾被用作 SOCAMM 模組的替代品。SOCAMM 將四個 LPDDR DRAM 模組組合成一個單一的基板,這樣也更方便進行記憶體升級。
據報導,Nvidia 已要求記憶體芯片行業提供多達 200 億吉字節(GB)的 SOCAMM 模組,並且正在進行的合約中,Samsung 將供應所需模組的一半(即 100 億 GB)。為了製造 100 億 GB 的 SOCAMM2 模組,約需要 8.3 億個 24Gb LPDDR5X DRAM 芯片。因此,估計每月需要生產 3 萬到 4 萬片晶圓,這大約是 Samsung 每月 DRAM 總產量的 5%。
據悉,Micron 和 SK Hynix 將供應剩餘的模組給 Nvidia。
隨著 Samsung 正在準備向 Nvidia 和其他 AI 芯片製造商供應 HBM4 和 SOCAMM2 芯片,未來幾年預計將獲得數十億美元的利潤。




