微博AI推出開源大型語言模型VibeThinker-1.5B 超越6710億參數競品表現

近日,微博AI 推出了開源大型語言模型(LLM)—— VibeThinker-1.5B。該模型擁有 15 億參數,在數學推理與代碼生成任務中顯示出超越 6710 億參數競品的性能。目前,VibeThinker-1.5B 可通過 Hugging Face、GitHub 及 ModelScope 平台免費開放下載,供開發者與研究機構使用。

VibeThinker-1.5B 模型在數學和代碼任務上表現出色,達到了行業領先的推理性能,甚至超越了體量達 6710 億參數的競爭對手 DeepSeek 的 R1 模型。該模型還能與 Mistral AI 的 Magistral Medium、Anthropic 的 Claude Opus4 及 OpenAI 的 gpt-oss-20B Medium 等多個大型模型抗衡。

值得一提的是,VibeThinker-1.5B 在後期訓練中僅花費了 7800 美元的計算資源,這一成本遠低於同類或更大規模模型所需的數十萬美元甚至數百萬美元。VibeThinker-1.5B 採用了一種名為「譜-信號原則」(Spectrum-to-Signal Principle, SSP)的訓練框架,該框架將監督微調和強化學習分為兩個階段。第一個階段注重多樣性,第二個階段則通過強化學習優化最優路徑,使得小模型也能有效探索推理空間,從而實現信號放大。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。