​阿里云推出新一代动作生成模型 Wan2.2-Animate,全面开源!

近日,正式宣布通义万相全新动作生成模型 Wan2.2-Animate 的,这一模型的推出将为短视频创作、舞蹈模板生成和动漫制作等领域带来极大便利。用户可以通过 GitHub、 和魔搭社区轻松下载模型及相关代码,此外,还可以利用阿里云的百炼平台调用 API,或在通义万相官网直接体验该模型的强大功能。

Wan2.2-Animate 模型是在之前的 AnimateAnyone 模型基础上进行全面升级的成果。在人物一致性和生成质量等方面都有了显著提升。该模型支持两种主要的应用模式: 动作模仿和角色扮演。在动作模仿模式下,用户只需输入一张角色图片和一段参考视频,模型便能够将视频中的角色动作和表情迁移到用户提供的图片角色上,实现角色的动态表现。而在角色扮演模式中,模型则能够在保留原视频的动作、表情和环境的基础上,替换视频中的角色为用户提供的角色。

为了提升生成效果,通义万相团队建立了一个大规模的人物视频数据集,涵盖了说话、面部表情和身体动作等多种元素,使用通义万相图生视频模型进行后续训练。Wan2.2-Animate 的设计使得角色信息、环境信息和动作等能够被规范化到统一的表示格式,从而兼容两种推理模式。针对身体运动和面部表情,模型分别使用骨骼信号和隐式特征,结合动作重定向模块,实现高精度的动作和表情复刻。此外,为了保证完美的光照效果,团队还特别设计了一个独立的光照融合 LoRA。

在实际应用中,Wan2.2-Animate 的表现也十分亮眼。在视频生成质量、主体一致性和感知损失等关键指标上,Wan2.2-Animate 超越了许多开源模型,如 StableAnimator 和 LivePortrait,并成为当前性能最强的动作生成模型。尤其在用户的主观评测中,其表现甚至超过了 RunwayAct-two 等闭源模型。

这一新模型的开源,将极大推动相关领域的发展,使得们能够更轻松地制作出优质的动态内容。

划重点:

🌟**新模型开源**: 阿里云的 Wan2.2-Animate 模型正式开源,用户可在多个平台下载和体验。

🎭**两种模式**: 支持动作模仿和角色扮演,提升动态表现力与替换能力。

🚀**性能优越**: 在多个关键指标上超越现有开源模型,成为动作生成领域的佼佼者。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

甲骨文与 OpenAI 的千亿交易:是投资新机遇还是风险豪赌?

2025-9-20 1:20:59

AI 资讯

生数科技获数亿元融资,视频生成引领 AI 商业化新潮流

2025-9-20 1:21:15

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索