根據報導,Samsung 將於本月開始大規模生產第六代高帶寬記憶體(HBM4)晶片。這些先進的半導體記憶體晶片預計將應用於 Nvidia 的下一代 AI 加速系統 Vera Rubin,該系統計劃在今年晚些時候推出。
來自南韓的報導指出,Samsung 可能會在下週,即農曆新年假期期間,開始向 Nvidia 供應 HBM4 晶片。這與先前有關大規模生產時間表的報導一致。這些晶片將用於 Nvidia 的 Rubin GPU,專為生成式 AI 伺服器和超大規模計算而設計。該公司最近已投入大量資源以提升其 HBM4 的生產能力。
若消息準確,Samsung 似乎是首家開始大規模生產 HBM4 晶片的公司。這表示其可能已經超越當前全球最大的 HBM 晶片供應商 SK Hynix。Samsung 一直在 HBM3 和 HBM3E 晶片方面落後於 SK Hynix,但在 HBM4 的生產上似乎已經取得顯著進展,重新獲得競爭優勢。
目前的 AI 加速器,如 AMD MI350 和 Nvidia B200,使用第五代高帶寬記憶體(HBM3E)晶片。Micron 和 SK Hynix 是 HBM3E 晶片的主要供應商,而 Samsung 在這些公司之後。然而,在 HBM4 的市場中,Samsung 預計將成為最大的供應商。
多項報導指出,Samsung 的 HBM4 晶片已通過 Nvidia 的最終驗證測試,並且 Nvidia 已經下單訂購。因為 Nvidia 希望能夠早期獲得 HBM4 晶片,Samsung 將其大規模生產時間表與 Nvidia 的需求進行了對接。
此外,Amazon 和 Google(Alphabet)也可能在未來的 AI 加速系統中使用 Samsung 的 HBM4 晶片。




