快手 Klear-Reasoner 模型成功登顶,数学推理准确率超 90%

的竞争中,数学和代码推理能力已成为一项重要的评估标准。最近发布的 Klear-Reasoner 模型基于 Qwen3-8B-Base 打造,其在多个权威基准测试中表现出色,数学推理的准确率甚至突破了 90%,成为同规模模型中的佼佼者。

Klear-Reasoner 的成功源于其采用的 GPPO(Gradient-PreservingClippingPolicyOptimization) 算法。这种算法在保证训练稳定性的同时,显著提升了模型的探索能力。传统的裁剪策略虽然能控制模型的更新幅度,确保训练过程的稳定性,但也存在着 「丢弃重要信息」 的问题,导致模型变得保守。而 GPPO 则通过一种 「温和」 的方式,让所有梯度参与反向传播,既保留了探索的可能性,又加快了模型对错误的修正速度。

在各类基准测试中,Klear-Reasoner 都展现出超越其他同规模模型的强劲实力。例如,在 AIME2024 测试中,该模型取得了 90.5% 的高分,而在 AIME2025 测试中,也达到了 83.2% 的优秀成绩。Klear 团队还分享了其训练的详细流程,包括对数据质量的重视、在高难样本中保留错误的策略、使用软奖励来提高模型的学习效率等关键环节。

值得注意的是,Klear 团队在实验中发现,优质数据源的质量往往比数量更为重要。在 SFT 阶段,通过过滤错误数据并专注于高质量样本,可以提升模型的训练效率。此外,团队还指出在强化学习阶段,使用软奖励策略比硬奖励更为有效,能够增强模型的学习稳定性。

Klear-Reasoner 的发布不仅展示了快手在 领域的技术进步,也为推理模型的训练提供了一条可复现的道路。这一成果为未来的研究和开发提供了宝贵的经验和启示。

  • HuggingFace 地址:https://huggingface.co/Suu/Klear-Reasoner-8B

  • GitHub 地址:https://github.com/suu990901/KlearReasoner/tree/main

划重点:

🌟Klear-Reasoner 模型在数学推理准确率上突破 90%,成为 8B 模型中的领军者。

🧠GPPO 算法提升了模型的探索能力,解决了传统裁剪策略的隐性问题。

📈关注数据质量和训练策略,Klear 团队的研究为推理模型提供了有效的训练方法。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

高薪新风口: 人工智能岗位月薪最高 7.8 万,实习生日薪可达 4000 元

2025-8-21 1:22:14

AI 资讯

中科院清华联手打造编程界达尔文:SE-Agent 自进化智能体狂飙 61.2% 成功率,开源引爆全球

2025-8-21 1:22:32

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索