基于SadTalker的AI主播,Stable Diffusion也可用

这篇博客介绍了如何使用SadTalker和Stable Diffusion进行AI主播的视频生成。相比于Wav2Lip,SadTalker在面部处理和速度上有优势,但可能需要调整源码以解决视频截取问题。作者详细阐述了从创建虚拟环境、安装依赖到模型预测对口型的步骤,并提到了模型对GPU资源的需求。同时,分享了数据准备、参数设置以及有趣的旋转操作等实用技巧。
摘要由CSDN通过智能技术生成

基于之前的AI主播的的学习基础 基于Wav2Lip的AI主播基于Wav2Lip+GFPGAN的高清版AI主播,这次尝试一下VideoRetalking生成效果。

总体来说,面部处理效果要好于Wav2Lip,而且速度相对于Wav2Lip+GFPGAN也提升很多,也支持自由旋转角度,但是如果不修改源码的情况下,视频的部分截取稍微有点问题。

这个训练图片还好,如果是做视频的话还是比较吃GPU资源的 16G显存是个起步配置。

准备工作

从github上下载源码,下载完毕之后下载模型 SadTalker v0.0.1 Release Note

模型分这么多种类,如果使用哪个模型将该文件夹下的内容复制到 checkpoints 中。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mr数据杨

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值