在 2022 年左右,生成式人工智能聊天機器人如 ChatGPT 開始進入市場,隨之而來的是對人工智能的需求迅速上升。這些工具運行在配備人工智能加速器的伺服器上,並需要大量高帶寬內存(HBM)。因此,這類內存的需求也開始急劇上升,價格隨之上漲,讓內存製造商獲益頗豐。
當時,Samsung 曾經生產 HBM 晶片,但由於主要品牌如 Nvidia 尚未批准這些晶片,導致銷售不佳,因為其性能不及其他市場上的 HBM 晶片。Samsung 錯過了賺取豐厚利潤的機會,因此在內存部門進行了一些重大調整,顯著改善了其 HBM 晶片的性能。
目前,Samsung 的 HBM3E 和 HBM4 晶片需求量極大。根據 Broadcom 和 Nvidia 的評估,後者在市場上被認為是最佳產品。由於對這些 HBM 晶片的需求如此旺盛,Samsung 無法滿足市場需求,這意味著公司可能正在錯失進一步獲利的機會。因此,Samsung 似乎正在擴大 HBM 的生產能力。
根據 ET News 的報導,Samsung 計劃在 2026 年底之前將其 HBM 生產能力擴大 50%。目前,該公司每月生產約 17 萬片 HBM 晶片,這與 SK Hynix 當前的 HBM 生產水平相當。到明年年底,該科技巨頭預計每月將生產 25 萬片晶片。這次擴大的產能主要將集中於 HBM4 晶片的生產。
報導指出,為了提升 HBM 的產量,Samsung 將會投資擴建平澤 4 號(P4)工廠。




