蚂蚁万亿参数思考模型 Ring-1 发布即开源,刷新多项开源 SOTA

10 月 14 日凌晨,蚂蚁集团正式推出万亿参数思考模型 Ring-1T,并全面模型权重、训练配方。Ring-1T 在 9 月 30 日开源的预览版 Ring-1T-preview 基础上,持续扩展大规模可验证奖励强化学习 (RLVR) 训练,进一步激发万亿基座的自然语言推理能力,并通过 RLHF 训练完善模型通用能力,在各项任务榜单上表现更加均衡。

为了持续激发 Ring-1T 的数学等复杂推理能力,此次百灵团队挑战了难度更高的 IMO2025(国际数学奥利匹克) 赛题,将 Ring-1T 接入多框架 AWorld,使用纯自然语言推理进行解题。实验结果显示,Ring-1T 仅用一次解出了第 1、3、4、5 题,相当于 IMO 银牌水平,成为首个能拿 IMO 国际奥数奖的开源系统。Ring-1T 在第三次尝试 IMO 时对第 2 题几何证明也给出了接近满分的证明过程,在顶流几乎全军覆没的第六题中将答案收敛到与 Gemini2.5Pro 相同的 「4048」(正确答案为 2112)。作为一款思考模型,Ring-1T 也表现出了极佳的通用能力,在 「人类偏好对齐」 测试 Arena-HardV2 中,Ring-1T 以 81.59 的成功率居于开源模型榜首,逼近 -5-Thinking(High)82.91 的成绩。在面向严谨领域的医疗问答 HealthBench 测评中,Ring-1T 也以最高分取得开源领域最佳。

(Ring-1T 与业界代表性思考模型的性能横评)

万亿参数思考模型训练最大难题是训推精度差异,即训练阶段与推理阶段因实现细节差异导致的训练和推理精度不一致,进而导致训练崩溃。在 Ring-1T 模型中,蚂蚁采用了自研的 「棒冰 (icepop)」 算法来应对这项行业难题,即用带掩码的双向截断技术把训练-推理分布差异冻结在低水位,确保长序列、长周期训练不崩。此外,应对万亿参数模型强化学习训练,蚂蚁还自研了高性能强化学习系统 ASystem(其中包含已开源的高性能强化学习框架 AReaL),特别针对万亿参数模型的显存管理和训推权重交换问题做了精细的优化,实现了单机显存碎片秒级回收、权重零冗余交换,把大规模 RL 训练稳定跑成日常。

(图左:GRPO 训推差异随着训练成指数上升,icepop 较为平稳; 图右: 训推差异最大值,GRPO 随着训练上升非常明显,icepop 维持在较低水位)

此外,本次发布的 Ring-1T 模型继续采用 Ling2.0 架构的 1Tbase 模型做后训练,Ling2.0 采用了包括高度稀疏的 MoE 架构,1/32 的专家激活比、FP8 混合精度、MTP 等诸多特性实现高效训练与推理。在后训练阶段,蚂蚁百灵团队通过 LongCoT-SFT+RLVR+RLHF 多阶段训练,显著提升了模型的复杂推理能力以及指令跟随和创意写作等通用能力。

据百灵团队透露,Ring-1T 模型是其在万亿思考模型上的首次尝试,蚂蚁百灵团队会在后续的版本中继续完善模型性能。目前,用户可通过 、魔搭社区下载模型,并通过蚂蚁百宝箱等平台在线体验。

据了解,截止目前蚂蚁百灵大模型已经发布 18 款模型,已形成从 160 亿总参数到 1 万亿总参数的产品矩阵,其中两款万亿参数模型—万亿参数通用大语言模型 Ling-1T、万亿参数思考模型 Ring-1T。随着两款万亿参数模型的发布,百灵大模型也正式步入 2.0 阶段。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

​微软 Copilot AI 实现邮件和文件直接连接,提升办公效率

2025-10-15 1:23:06

AI 资讯

​英国政府提出 AI 节省 450 亿英镑计划,但专家质疑其可行性

2025-10-16 1:20:32

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索