最近,“王炸”通义万相2.1视频生成模型全面开源,凭借86.22%的VBench评分碾压Sora、Pika等国际竞品,登顶全球视频生成榜单,瞬间点燃全球AI圈。作为阿里通义家族的明星模型,通义万相Wan2.1视频开源模型基于主流的DiT和线性噪声轨迹Flow Matching范式,实现了生成能力的重大进步。包括自研高效的3D因果VAE、可扩展的预训练策略、大规模数据链路构建以及自动化评估指标,极大提升了模型的最终性能表现,以其高质量的视频生成,成为开源最强视频生成模型,视频效果远超腾讯混元大模型,Wan2.1更是首个支持中英双语文字生成的模型,成绩属实亮眼!
但经过我们实测发现,如果想要在消费级显卡上运行,显然还需要经过量化,好在kjijai大佬Wan2.1插件,很大程度提升在消费级显卡上的运行速率。目前该应用通义万象Wan2.1满血版【ComfyUI】已经在无阶未来上架,本期就带你深入学习如何使用通义万象Wan2.1。
同时,阿里巴巴在3月6日开源推理模型「通义千问QwQ-32B」,基于双阶段强化学习技术显著提升数学、代码及通用推理能力,综合性能对标顶级开源模型671b的DeepSeek-R1,并在多项基准测试中超越OpenAI-o1-mini。采用动态稀疏架构实现消费级显卡本地部署,模型集成智能体交互系统,支持实时推理路径优化,适用于高安全场景,后续将重点突破长程推理与AGI核心技术。该模型无阶未来也即将上线!敬请期待!
下面我们来讲解一下如何在无阶未来上使用通义万相Wan2.1:
1.点击无阶未来官网首页-找到【通义万相wan2.1满血版】应用,点击启动;
2.选择合适的显卡。这里推荐大家选择4090或者A100等性能较高的显卡,测试效果下,5秒视频仅需不到10min生成;
3.等待镜像拉取,显示启动成功后,点击图中所示的部分开启ComfyUI界面;
4.进入Comfyui界面后,默认工作流即为通义万相视频生成工作流;
5.可以使用鼠标滚轮进行界面缩放,如下图红框部分处可以进行文生视频和图生视频工作流切换,在图中框选处选择需要使用的工作流即可;
6.点击页面下方的执行,开始生成视频,注意:第一次使用因为需要加载模型会较慢,约为7-10分钟,后续所需生成时间变为正常;
7.通义万相是支持直接图生视频的,我们已为您默认设置了工作流,在图生视频中,下图中框选的地方可以上传自己需要的图像;
8.下图中,上面绿色框部分为正面提示词,即你需要生成的内容,下面红框中是负面提示词,即你不想在画面中产生的内容,中文效果也是非常好的。
11.最后视频的长度在下图所示的部分进行调整,其中从上至下的参数分别表示****宽度,高度,视频长度,以及一次生成几个视频。这里圆形圈出来的81代表5秒的视频,计算时长的方式为16×(你需要的视频长度)+1,例如这里的81=16×5+1即视频时长为5秒,这里不建议用超过5秒的时长,否则可能生成视频的时间会变得非常久,例如该480×848的5秒视频使用24G的4090显卡也会需要10分钟。因此不建议将时长再增加。
以上就是我们关于通义万相2.1视频生成模型使用教程,想了解更多相关知识吗,一键学习AI生视频,欢迎关注无阶未来,加入官方社群了解更多详情!
欢迎加入无阶未来用户群,一键学习更多AI生图内容!