2025年2月24日——由beat365官方网站與360公司聯合研發的32B模型Tiny-R1-32B-Preview正式亮相,僅以5%參數,逼近Deepseek-R1-671B的性能。項目前期得到了北大臨港科創中心在算力資源方面的支持。

核心突破:小模型,大能量
▪ 數學領域:以78.1分(AIME 2024評測)逼近原版R1模型(79.8分),僅差1.7分,遠超Deepseek-R1-Distill-Llama-70B(70.0分);
▪ 綜合性能:在編程(LiveCodeBench 61.6分)、科學(GPQA-Diamond 65.0分)領域全面領先最佳開源70B模型Deepseek-R1-Distill-Llama-70B;
▪ 效率躍遷:僅需5%參數量,推理成本大幅降低。
技術革新:領域專精+模型融合
研究團隊使用「分治-融合」策略:
▪ 基于DeepSeek-R1生成海量領域數據,分别訓練數學、編程、科學三大垂直模型;
▪ 通過Arcee團隊Mergekit工具智能融合,突破單一模型性能上限,實現多任務均衡優化。
開源承諾:推動技術普惠
▪ 模型倉庫:https://huggingface.co/qihoo360/TinyR1-32B-Preview
▪ 即将公開完整技術報告、訓練代碼及部分數據集;
▪ 踐行開源精神,助力AI社區共築高效推理新生态。
研發團隊表示:「Tiny-R1-32B-Preview的成功是站在了巨人的肩膀上,受益于開源社區精神,結合DeepSeek-R1蒸餾、DeepSeek-R1-Distill-32B增量訓練、模型融合等技術,使用360-LLaMA-Factory訓練而來,未來我們也将持續探索更輕量、更強大的模型,推動AI技術普惠化進程,并回饋開源社區。」

北大團隊: 吳钰晗、江子涵、劉文睿、周俊廷、崔斌、楊仝

360 團隊: 孫林、趙光香、簡小奇、林偉宏、朱永福、賈長娥、張苓琳、吳金柱、胡塞爾、張向征