中國發佈全球首款類腦 AI,速度超越競爭對手 100 倍

中國科學院自動化研究所的研究人員最近推出了一款名為 SpikingBrain 1.0 的新型人工智能系統。該系統被團隊描述為一種“類腦”大型語言模型,旨在使用更少的能源並運行於國產硬件上,而非業界領導者 Nvidia 的芯片。研究者在一篇未經同行評審的技術論文中指出:“主流的基於 Transformer 的大型語言模型面臨著顯著的效率瓶頸:訓練計算隨著序列長度的增長而呈平方級增長,推理內存則呈線性增長。”這一技術的進步不僅有助於提升人工智能系統的性能,還能在一定程度上解決目前普遍存在的計算資源消耗過大的問題。

根據研究團隊的說法,SpikingBrain 1.0 在某些任務中比一些傳統模型快了多達 100 倍,且其訓練所需的數據量僅為通常所需的 2% 以下。該項目是神經形態計算的一部分,旨在複製人腦的高效能,因為人腦在運作時僅需約 20 瓦的電力。研究人員補充道:“我們的工作受到大腦機制的啟發。”這表明該系統在設計理念上有助於模仿自然界的運作方式,從而在效率上取得顯著的提升。

SpikingBrain 1.0 的核心技術被稱為“尖峰計算”,這是一種模仿人腦中生物神經元功能的方法。與主流人工智能工具如 ChatGPT 通過激活整個龐大網絡來處理信息的方式不同,SpikingBrain 1.0 的網絡在大多數時間保持安靜。它使用事件驅動的方式,只有在受到特定輸入觸發時,神經元才會發送信號。這種選擇性反應是降低能耗和加快處理速度的關鍵。為了驗證其概念,團隊構建並測試了兩個版本的模型,一個是包含 70 億個參數的小型版本,另一個則是包含 760 億個參數的大型版本。這兩個模型的訓練所使用的數據量約為 1,500 億個標記,這對於這種規模的模型來說是相對較少的。

該模型在處理長數據序列時的效率尤其引人注目。在一個論文中提到的測試中,小型模型對一個包含 400 萬個標記的提示反應速度比標準系統快了 100 倍以上。在另一個測試中,SpikingBrain 1.0 的一個變體在從一百萬個標記的上下文中生成第一個標記時,相較於傳統的 Transformer 架構顯示出了 26.5 倍的速度提升。這些結果不僅展示了在非 NVIDIA 平台上高效訓練大型模型的可行性,還為未來計算系統中類腦模型的可擴展部署和應用指明了新的方向。

研究人員報告稱,他們的系統在數百個由上海的 MetaX 集成電路公司開發的 MetaX 芯片的設置下穩定運行了數週。這一持續的性能表現突顯了該系統在現實世界部署中的潛力。這些潛在應用包括分析冗長的法律和醫療文件、高能物理研究以及 DNA 序列分析等複雜任務,這些任務都涉及到在速度和效率至關重要的情況下理解大量數據集。該研究的成果為未來的人工智能發展提供了新的視角,顯示了在不同硬件平台上能夠實現高效能的可能性。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。