360聯合北大震撼發布!5%參數量逼近Deepseek-R1滿血性能
2025年2月24日——由360與北京大學聯合研發的中等量級推理模型Tiny-R1-32B-Preview正式亮相,僅以5%參數,逼近Deepseek-R1-671B的性能。
核心突破:小模型,大能量
? 數學領域:以78.1分(AIME 2024評測)逼近原版R1模型(79.8分),遠超Deepseek-R1-Distill-Llama-70B(70.0分);
? 綜合性能:在編程(LiveCodeBench 61.6分)、科學(GPQA-Diamond 65.0分)領域全面領先最佳開源70B模型Deepseek-R1-Distill-Llama-70B;
? 效率躍遷:僅需5%參數量,性能達原版R1的95%以上,推理成本大幅降低。
技術革新:領域專精+模型融合
研究團隊使用「分治-融合」策略:
? 基于DeepSeek-R1生成海量領域數據,分別訓練數學、編程、科學三大垂直模型;
? 通過Arcee團隊Mergekit工具智能融合,突破單一模型性能上限,實現多任務均衡優化。
開源承諾:推動技術普惠
? 即將公開完整技術報告、訓練代碼及部分數據集;
? 踐行開源精神,助力AI社區共筑高效推理新生態。
研發團隊表示:「Tiny-R1-32B-Preview是蒸餾技術的里程碑,未來將持續探索更輕量、更強大的通用模型,推動AI技術普惠化進程。」
360 團隊: Lin Sun, Guangxiang Zhao, Xiaoqi Jian, Weihong Lin, Yongfu Zhu, Change Jia, Linglin Zhang, Jinzhu Wu, Sai-er Hu, Xiangzheng Zhang
北大團隊: Yuhan Wu, Zihan Jiang, Wenrui Liu, Junting Zhou, Bin Cui, Tong Yang
【廣告】 (免責聲明:本文為本網站出于傳播商業信息之目的進行轉載發布,不代表本網站的觀點及立場。本文所涉文、圖、音視頻等資料的一切權利和法律責任歸材料提供方所有和承擔。本網站對此資訊文字、圖片等所有信息的真實性不作任何保證或承諾,亦不構成任何購買、投資等建議,據此操作者風險自擔。) 本文為轉載內容,授權事宜請聯系原著作權人,如有侵權,請聯系本網進行刪除。
責任編輯:邱晨露