字节跳动与清华大学携手开源前沿多模态框架 HuMo

的智能创作团队与清华大学联合推出了一款名为 HuMo 的框架,旨在推动人体视频生成 (HCVG,Human-CentricVideoGeneration) 领域的进步。HuMo 框架具备强大的多模态输入处理能力,可以同时利用文本、图像和音频三种信息,协同生成高质量视频。

HuMo 的名称 「Human-Modal」 恰如其分地反映了其聚焦人类及其活动的理念。这个框架的成功之处在于它构建了一个高质量的数据集,并创新性地采用了渐进式训练方法。这种训练方式使得 HuMo 能够在各项子任务中超过现有的专业化方法,生成清晰度高达 480P 和 720P 的视频,最长可达 97 帧,以 25 帧每秒的速度输出可控的人物视频。

框架的核心优势在于其创新的数据处理流程、灵活的推理策略以及渐进式的多模态训练方式。这些技术的结合,不仅提高了生成视频的质量,还提升了处理速度,使得 HuMo 在实际应用中表现得更加出色。

对于开发者和研究人员来说,HuMo 不仅是一种新的工具,更是一种灵活的解决方案,能够满足不同场景下的需求。项目的开源地址也让更多的人可以参与到这项技术的研究与应用中,为未来的多模态视频生成探索新的可能。

论文地址:https://arxiv.org/pdf/2509.08519

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

Reddit 测试新功能:用户可在应用内阅读文章并查看评论

2025-9-12 1:23:14

AI 资讯

医学教育革命来袭!复旦中山医院推出 AI 教学大模型,培养有温度的未来医生

2025-9-13 1:20:41

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索