Samsung 稱其新 AI 晶片比 Nvidia H100 節能 8 倍

Samsung 電子和 Naver 合作開發了一款針對大規模 A.I. (AI)模型的專用半導體解決方案。這個項目結合了 Samsung 的晶片生產實力和先進的記憶體技術,以及 Naver 在 AI 方面的專業知識。據《BusinessKorea》報導,這兩家公司的首個解決方案根據數據來看,比 Nvidia 的 AI GPU 節能 8 倍。

最近,這兩家公司展示了他們基於可編程門陣列(FPGA)的首個 AI 半導體解決方案,專為 Naver HyperCLOVA X 大型語言模型的推理而設計。Naver 表示,由於使用了 LPDDR 記憶體,這款 AI 解決方案比 Nvidia 的 AI GPU 節能 8 倍,但並未詳細說明設備的其他細節。例如,目前還不清楚這兩家公司將何時開發出可供出貨的產品。

Samsung 和 Naver 在 2022 年底開始合作。這兩家公司的合作重點是利用 Samsung 的先進製程技術,並利用高科技記憶體解決方案,如計算存儲、內存處理(PIM)、近存處理(PNM)和計算擴展連接(CXL),以及 Naver 在軟件和 AI 算法方面的專長。

Samsung 已經生產和銷售各種用於 AI 應用的記憶體和存儲技術,包括 SmartSSD、HBM-PIM 和帶有 CXL 接口的內存擴展器。事實上,記憶體對於 Samsung 和 Naver 即將推出的 AI 解決方案至關重要。

Samsung 電子記憶體全球銷售與市場營銷執行副總裁 Jinman Han 表示:「通過與 Naver 的合作,我們將開發尖端的半導體解決方案,解決大規模 AI 系統中的內存瓶頸問題。通過量身訂製的解決方案,以滿足 AI 服務提供商和用戶的最迫切需求,我們致力於擴大我們市場領先的記憶體產品線,包括計算存儲、PIM 等,以充分滿足不斷增長的數據規模。」

按此即看更多:AI 人工智能 新聞
按此即看更多:
免費使用 ChatGPT-4 的 6 個方法
按此即看更多:5 個「香港」免費使用 ChatGPT-4 的方法

此文章發佈於 TechRitual 香港