ComfyUI AnimateDiff-Lightning 教程

介绍

项目主页: https://huggingface.co/ByteDance/AnimateDiff-Lightning

在线测试(有墙): https://huggingface.co/spaces/ByteDance/AnimateDiff-Lightning

国内镜像:https://hf-mirror.com/ByteDance/AnimateDiff-Lightning

AnimateDiff-Lightning 是从 AnimateDiff SD1.5 v2 模型中提炼出来的,包含 1 步、2 步、4 步和 8 步共 4 个蒸馏模型。其中 2 步、4 步和 8 步模型的生成质量较好,1 步模型目前仅用于研究目的。官方有在线体验网站,支持 8 种镜头运动,测试了一下 10 秒内就能生成一个 2s 的视频, 并且步数越高的模型生成的质量也越好。

安装

1,在ComfyUI-Manager内搜索节点直接安装。
2,git clone方法安装。

模型

模型文件推荐从国内镜像下载,下载地址:https://hf-mirror.com/ByteDance/AnimateDiff-Lightning/tree/main
下载后放到这个目录下面:comfyui根目录/custom_nodes/ComfyUI-AnimateDiff-Evolved/models/

你需要多少步骤的,就下多少步骤的模型,都下载的话,程序里自己选择相应的就行。
animatediff_lightning_1step_comfyui.safetensors 这个是给comfyui用的,一看名字便知。
animatediff_lightning_1step_diffusers.safetensors 这个是给stable diffusion用的。

样例里还用到了另一个插件和模型,lllyasviel/ControlNet-v1-1
下载地址:https://hf-mirror.com/lllyasviel/ControlNet-v1-1/tree/main
放到comfyui根目录/models/controlnet/

样例

官方给了两个样例,原文里有写,找到下载就行
animatediff_lightning_workflow.json
animatediff_lightning_v2v_openpose_workflow.json
注意里面用到了DWPose 的话,将在首次运行时下载模型,但是容易因为网络问题失败,所以还是要先安装好DWPose插件和相关模型。

作者建议

视频不应太长或分辨率太高。建议使用 576x1024 8 秒 30fps 视频进行测试。

设置帧速率以匹配您的输入视频。这允许音频与输出视频匹配。

DWPose 可能会卡在 UI 中,但管道实际上仍在后台运行。检查 ComfyUI 日志和输出文件夹。

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

jayli517

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值