还不知道SD如何生成动画视频?快来试试Animatediff 插件生成视频

本文介绍了AnimateDiff插件,它通过训练短视频优化图像连续性,用于StableDiffusion生成稳定且流畅的GIF动画。文章详细讲解了安装、配置和使用方法,以及AIGC技术的发展前景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天和大家介绍一款SD动画插件“AnimateDiff”,这是一款可以在stable diffusion中制作稳定gif动图的插件,通过AnimateDiff这款插件,直接通过文生图的形式就可以生成gif动图,而且从最终出图的品质来看,动图的表现非常的稳定,并且动图画面也很流程,那么就让我们看看具体要如何使用“AnimateDiff”插件。文末扫码可获取插件~

项目地址:

https://github.com/guoyww/animatediff/tediff/

您可以用它创建逼真的视频,或者卡通风格,目前卡通风格的效果是最好的,所以在本教程中演示卡通风格如何使用,道理是一样的。
感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

请添加图片描述

一、AnimateDiff简介

AnimateDiff采用控制模块来影响Stable Diffusion模型,通过大量短视频剪辑的训练,它能够调整图像生成过程,生成一系列与训练视频剪辑相似的图像。简言之,AnimateDiff通过训练大量短视频来优化图像之间的过渡,确保视频帧的流畅性。

与传统的SD模型训练方式不同,AnimateDiff通过大量短视频的训练来提高图像之间的连续性,使得生成的每一张图像都能经过AnimateDiff微调,最终拼接成高质量短视频。

二、安装AnimateDiff

1. 下载所需文件

对于这种卡通风格,一个不错的checkpoint是 ToonYou,您可以从 CivitAI网站下载最新版本,并把它拖到您的Stable Diffusion模型文件夹中,如下所示。

下图:放到Stable Diffusion的模型文件夹中

2. 安装 AnimateDiff 扩展

要使用AnimateDiff,需要安装SD插件和AnimateDiff模型。

插件安装:如果你可以科学上网,你可以直接在扩展->从网址安装中填入https://github.com/continue-revolution/sd-webui-animatediff.git

安装完成后,重新启动Stable Diffusion,在文生图页面中将看到AnimateDiff插件的配置选项。

3. 下载AnimateDiff模型

模型下载:

https://huggingface.co/guoyww/animatediff/tree/main

接下来我们需要 AnimateDiff 模型,这是使用扩展所必需的,您可以从 Hugging Face 网站下载该模型。目前有3种型号可供选择;“mm_sd_v14.ckpt”和“mm_sd_v15.ckpt”、“mm_sd_v15_v2.ckpt”。建议几个模型都下载下来,这样可以自己尝试哪个更符合需求。

将这些文件放置在以下目录中:

stable-diffusion-webui/extensions/sd-webui-animatediff/model/

4. AnimateDiff 设置

安装 AnimateDiff 扩展后,它会出现在Stable Diffusion界面的底部。

要使用它,单击“AnimatedDiff”选项,界面会展开。以下是您可以配置的一些设置,我列一下我推荐的设置。

运动模块(Motion module):mm_sd_v15_v2.ckpt
帧数(Number of frames):建议至少使用8帧以获得良好质量,如果使用较低的值,输出效果不会那么好。
每秒帧数(FPS):调整播放速度,我建议至少8到12。

不要忘记选中“启用”来使用该扩展。

故障排除

如果生成时间较长,请在生成前选择右边的“从内存中移除运动模块”。将负面提示控制在75个字符以下也很有帮助。最大帧数使用16帧。

5. Stable Diffusion设置

您可以尝试这些设置,找出最适合自己的。

checkpoint模型:根据自己创作方向选择适合的模型
clip跳过层:2(或更高)
正面提示词:包括 masterpiece,best quality等
负面提示词:包括 worst quality, low quality, letterboxed等
采样方法:DDIM(最快的采样方法,会大大减少生成时间)。
采样步骤:最少 25 个,我建议 40 个。
宽高:512x512 或 768x768。请记住,您以后随时可以升级您的 GIF。
提示词相关性(CFG Scale):7.5 - 8

对于其余的配置,使用默认设置就行。

6、视频生成

第一步:输入关键字

模型:majicMIX realistic 麦橘写实_v7

提示词:a young girl in white with long strait hair wearing earrings and with red lipstick,clean skin,in the style of minimalist sets,piles/stacks,kitsch and camp charm,accessories.vibrant colorful portrait.waist-above shot,professional photography,duobaca,lora:花样年华\_v1.0:0.6,

反向提示词:bad-artist,bad-artist-anime,bad-hands-5,bad-image-v2-39000,bad-picture-chill-75v,bad_prompt,bad_prompt_version2,badhandv4,NG_DeepNegative_V1_75T,EasyNegative,2girls,3girls,(nsfw:1.3),

第二步:配置AnimateDiff

介绍以下几个基础参数:

  • Motion Module:使用AnimateDiff模型

  • Enable AnimateDiff:启用

  • FPS:每秒帧数(每帧为一张图片)

  • Number of frames:总帧数。总帧数/FPS = 视频长度,例如,上述参数会生成4秒的视频。

第三步:生成视频

点击生成按钮,观察效果。

在中间效果图中,你会看到生成了16张图像(总帧数)。

视频效果:

7、细节优化:

AnimateDiff支持与其他插件结合使用。使用adetail插件可改善脸部细节问题,可以直接启用。

连续性优化:

启用AnimateDiff的Frame Interpolation功能,将Frame Interpolation设置为FILM,并将Interp X设置为FPS的倍数,比如将其设置为10。

你还可以启用反向帧功能(Add Reverse Frame),这相当于正向播放视频一次,再反向播放一次,实际上会提升视频的流畅度。

8、遇到的问题

提示词长度问题:图片提示词的长度不能超过75。

启用高清修复,GPU很容易会崩溃。

图片分辨率不能太大。

多次生成视频时报错:如果多次生成视频时出现以下错误信息:“Expected weight to be a vector of size equal to the number of channels in input, but got weight of shape [1280] and input of shape [16, 2560, 9, 9]” 你需要在启动SD时删除–xformers参数。

9.结论

虽然输出的质量可能有所差异,不过不影响AnimateDiff依然是目前最强的文生动图工具之一。

AI绘画的秘诀之一就是多尝试,试试不同的设置和模型,才能获得更满意的结果。
AI绘画SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,有需要的小伙伴文末扫码自行获取。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

请添加图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
请添加图片描述
若有侵权,请联系删除

### 使用 Stable Diffusion 将图片序列生成视频 #### 准备工作 为了能够利用 Stable Diffusion 创建基于图像序列的动画效果,需先完成环境搭建以及必要的配置。确保已按照说明下载并放置好所需的模型文件至 `stable-diffusion-webui/extensions/sd-webui-animatediff/model/` 文件夹内[^2]。 #### 配置工程设置 进入工程设置界面,指定目标项目的根目录位置,并提供原始静态图片所在的路径作为素材源。这一步骤对于后续处理至关重要,因为软件将依据这些设定来读取和操作对应的资源文件。 #### 调整插件选项 前往插件配置区域调整相关参数以适应具体的创作需求。例如,在此场景下可考虑如下几项重要设置: - **蒙版方式**设为“透明背景”,以便更好地分离前景主体; - **蒙版阈值**建议初始值定于0.05附近,具体数值可根据实际视觉反馈微调优化; - 若硬件条件允许(如GPU内存大于等于8GB),启用“实时预览模式”能显著提升工作效率;同时开启“快速模式”可以大幅缩短等待时间,提高迭代速度[^1]。 #### 执行生成流程 当一切准备就绪之后,只需简单点击界面上提供的“生成”按钮启动自动化进程。系统将会自动遍历选定范围内的所有帧图,并为之创建相应的遮罩信息保存在一个新的子文件夹当中。该文件夹内部仅包含了重新渲染后的每一帧静止画幅,还附带了由算法计算得出的对象轮廓数据用于指导合成动作过渡。 #### 合成最终成果 获得上述输出后,可通过第三方工具或继续借助当前平台自带功能进一步编辑拼接各独立片段成为连贯流畅的动态影像作品。值得注意的是,部分高级特性可能依赖额外安装特定扩展组件才能实现更精细的效果控制。 ```bash ffmpeg -framerate 24 -i %04d.png output.mp4 ``` 以上命令展示了如何通过 FFmpeg 工具链将编号命名规律排列的一系列 PNG 图像转换组合成一段 MP4 视频文件,其中 `-framerate` 参数指定了播放速率而 `%04d.png` 则匹配四位数序号格式的画面源。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值