字节跳动推出 VLA 通用机器人模型 GR-3 支持高灵巧度操作

近日,字节跳动 Seed 团队正式推出全新 Vision-Language-ActionModel(VLA) 模型 GR-3,该模型在机器人操作领域展现出突破性能力,不仅能理解包含抽象概念的语言指令,还可精准操作柔性物体,并具备快速迁移至新任务、认识新物体的泛化能力。这一成果被视为迈向通用机器人 「大脑」 的重要进展。

传统机器人操作模型往往依赖大量机器人轨迹数据进行训练,导致迁移至新任务时成本高、效率低。GR-3 则通过少量人类数据即可实现高效微调,其核心突破在于采用 Mixture-of-Transformers(MoT) 网络结构,将视觉-语言模块与动作生成模块整合为 40 亿参数的端到端模型。其中,动作生成模块通过 DiffusionTransformer(DiT) 结合 Flow-Matching 技术生成动作,并引入归一化的 RMSNorm 设计,显著增强了动态指令跟随能力。这一结构使 GR-3 能像人类一样,直接根据摄像头画面与语言指令规划连续动作,例如在听到 「收拾餐桌」 后,自动完成 「打包剩菜→收拾餐具→倒垃圾」 的全流程。

训练数据层面,GR-3 突破了单一数据源的局限,通过三合一数据训练法实现能力跃升: 其一,利用遥操作机器人收集的高质量真机数据,确保基础操作能力; 其二,通过用户授权的 VR 设备采集人类轨迹数据,使新任务学习效率提升近一倍 (450 条/小时 vs 传统 250 条/小时); 其三,融合公开可用的图文数据,让模型理解 「大」「小」「左右」 等抽象概念,并识别未见过物体的特征。这种多样性数据融合策略,使 GR-3 在未见过的物体抓取任务中成功率较基准模型提升 17.8%,仅需 10 条人类轨迹数据即可将新物体操作成功率从 60% 提升至 80% 以上。

为验证模型性能,团队在通用拾取放置、长程餐桌清理、柔性衣物操作三大任务中展开系统性测试。在通用拾取放置任务中,GR-3 在训练过的场景里指令遵循率和成功率分别达 98.1% 和 96.3%,在新环境 (卧室书桌、超市柜台等) 中性能几乎无衰减,且能精准处理 「把雪碧旁边的可乐放进盘子」 等涉及空间关系的复杂指令。长程餐桌清理任务中,GR-3 可自主完成多步骤操作,平均完成度超 95%,并能严格跟随分步指令,面对无效指令时准确判断不动作。柔性衣物操作测试显示,GR-3 在挂衣服任务中完成度达 86.7%,即使面对短袖等未见过的衣物款式或混乱摆放状态,仍能稳定完成任务。

与硬件的协同创新是 GR-3 的另一亮点。团队研发的通用双臂移动机器人 ByteMini 作为载体,配备 22 个全身自由度与独特手腕球角设计,结合全身运动控制 (WBC) 系统,实现狭小空间内的精细操作与平滑轨迹生成。例如,抓取纸杯时能自动调整力度避免捏碎,机械臂可像人类手腕般灵活转动。多摄像头布局 (2 个手腕摄像头看细节、头部摄像头看全局) 则确保 「眼观六路」 的感知能力。

尽管 GR-3 在泛化性与操作精度上已超越业界此前可测试的 VLA 头部模型π0,但团队仍计划通过扩规模、增加训练数据量 (如更多物体的视觉语言数据、复杂任务机器人数据) 进一步提升泛化能力。同时,引入强化学习 (RL) 方法突破模仿学习局限,使机器人在遇到物体滑落等突发情况时能自主调整策略,增强抗干扰能力。

字节跳动 Seed 团队表示,GR-3 的研发旨在解决传统机器人 「听不懂抽象指令」「不适应环境变化」「做不好长程任务」 的三大瓶颈。未来,团队将持续探索大模型与机器人技术的深度融合,推动通用机器人 「大脑」 走进日常生活,成为帮助人类处理各类事务的。这一成果不仅为机器人学习领域提供了新范式,更让 「机器人全能助手」 的愿景更近一步。

ArXiv:https://arxiv.org/abs/2507.15493

项目主页:https://seed.bytedance.com/GR3

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

Pika 重磅推出 AI 视频特效 APP:自拍秒变大片,解锁无限创意新玩法!

2025-7-23 1:21:23

AI 资讯

​智谱 Z.ai 发布 Zread.AI,助力开源项目阅读新体验

2025-7-23 1:21:30

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索