苹果推出 AI 训练新方法 用任务清单替代人工评分显著提升模型性能

苹果公司研究团队近日在最新论文中提出了一种名为"基于清单反馈的强化学习"(RLCF) 的创新训练方法,通过用具体任务清单替代传统的人工点赞评分机制,大幅提升了执行复杂指令的能力。

据了解,RLCF 全称为 ReinforcementLearningfromChecklistFeedback,与目前广泛采用的"人类反馈强化学习"(RLHF) 方法形成鲜明对比。传统 RLHF 方法主要依赖人工进行简单的点赞或点踩评价,而 RLCF 则为每条用户指令生成详细的检查清单,并按 0-100 分的标准对各项内容进行精确评分,以此作为模型优化的指导依据。

苹果研究团队选择了强指令跟随模型 Qwen2.5-7B-Instruct 作为测试对象,并在五个常用评测基准上进行了全面验证。测试结果显示,RLCF 是唯一在所有测试项目中都取得性能提升的训练方案。

具体数据显示,在 FollowBench 测试中,硬性满意率提升了 4 个百分点。InFoBench 评分提高 6 点,Arena-Hard 胜率增加 3 点。在某些特定任务中,性能提升幅度最高达到 8.2%。这些数据表明,清单反馈方法在处理复杂多步骤任务时表现尤为突出。

在技术实现方面,苹果团队的清单生成过程颇具创新性。他们采用更大规模的 Qwen2.5-72B-Instruct 模型,结合现有研究方法,为 13 万条指令构建了名为"WildChecklists"的专用数据集。清单内容设计为明确的二元判断项,例如"是否翻译成西班牙语"等具体要求。随后,对候选回答进行逐项评分,通过综合加权处理后形成训练奖励信号,指导小模型的学习优化过程。

不过,苹果研究人员也坦率承认了该方法的局限性。首先,RLCF 需要依赖更强大的模型作为评判标准,这在计算资源受限的场景下可能面临实施困难。其次,该方法专门针对复杂指令执行能力的提升而设计,并非用于安全对齐目的,因此无法替代现有的安全性评估和调优机制。对于其他类型的 任务,RLCF 方法的适用性还需要进一步的实验验证。

业界专家认为,苹果此次提出的 RLCF 方法为 训练提供了新的思路,特别是在处理复杂多步骤任务方面展现出明显优势。随着技术的进一步完善,这一方法有望在实际应用中发挥更大作用。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

字节跳动 AI 核心人才流失 视觉研究负责人冯佳时正式离职

2025-8-27 1:23:16

AI 资讯

IBM 与 AMD 联手冲刺量子计算,打造未来 AI 新生态

2025-8-28 1:20:32

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索