阿里云正式宣布通义万相全新动作生成模型 wan2.2-animate 开源。该模型可驱动人物、动漫角色及动物图像实现动态化,广泛适用于短视频制作、舞蹈模板生成、动画创作等多个场景。开发者可通过 github、huggingface 和魔搭社区获取模型与代码,也可通过阿里云百炼平台调用 api,或直接在通义万相官网体验功能。
Wan2.2-Animate 是在先前开源的 Animate Anyone 模型基础上全面升级而来,在角色一致性、画面生成质量等方面实现了显著提升,并新增支持“动作模仿”与“角色扮演”双模式。
在动作模仿模式中,用户只需提供一张角色图片和一段参考视频,模型即可将视频中人物的动作与表情迁移到静态图像角色上,赋予其生动的动态效果。而在角色扮演模式下,模型能在保留原视频动作、表情及背景环境的前提下,将其中的角色替换为指定图片中的形象。

为训练该模型,通义万相团队构建了一个包含丰富说话、面部表情和肢体动作的大规模人物视频数据集,并基于通义万相图生视频模型进行后训练优化。Wan2.2-Animate 将角色、环境与动作信息统一编码至同一表示空间,从而实现单模型支持两种推理方式。针对身体运动与面部表情,模型分别采用骨骼信号与隐式特征表征,并结合动作重定向模块,精准还原复杂动作与细腻表情。在角色替换场景中,团队还引入独立设计的光照融合 LoRA 模块,确保合成结果具备自然真实的光影一致性。
通义万相
通义万相,一个不断进化的AI艺术创作大模型
596 查看详情
实际测试表明,Wan2.2-Animate 在视频质量、主体一致性及感知损失等核心指标上均优于 StableAnimator、LivePortrait 等主流开源方案,成为当前性能领先的开源动作生成模型。在人类主观评价测试中,其表现甚至超越 Runway Act-two 等闭源系统。
源码地址:点击下载
以上就是通义万相全新动作生成模型 Wan2.2-Animate 正式开源的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/342692.html
微信扫一扫
支付宝扫一扫