它来了!SDXL + ControlNet 终于强强联合!

img

图源:reddit/Lozmosis

一、ControlNet 简介

SDXL 1.0 发布已经过去20多天,终于迎来了首批能够应用于 SDXL 的 ControlNet 模型了!

我们都知道,相比起通过提示词的方式,ControlNet 能够以更加精确的方式引导 stable diffusion 模型生成我们想要的内容。

就好比当我们想要一张“鲲鲲山水图”的时候,会发现很难通过语言来描述这样的景象。但是有了 ControlNet 之后,一切都会变得容易许多。我们只需要一张“鲲”的图片作为 ControlNet 的输入,然后在提示词框内输入山水的描述,我们的“鲲鲲山水图”就呼之欲出了。

img

Stable diffusion V1.5 以及基于此模型的微调模型都能使用非常多种类的 ControlNet 模型,比如 depth(深度图)、canny(边缘检测)和 openpose(人物姿势)等等。具体内容可看往期介绍 ControlNet 的内容。

那么大家可能就会会有疑问了,老版本的 ControlNet 模型能不能在 SDXL 中使用呢?

答案恐怕是“*不能*”。

由于 SDXL 的模型架构相比 SD 1.5有明显的改变,因此不能兼容以往的 ControlNet 模型。在 SDXL 正式发布之前,ControlNet 官方就已经开始着手训练适用于 SDXL 的 ControlNet 新模型,目前仍在测试阶段,正式版本应该在不久后就会公开。

那么今天要介绍的 ControlNet 模型来自哪里呢?答案是第三方。事实上,SD 1.5 使用的一些 ControlNet 模型并不是官方模型,比如广为使用的 qrcode(二维码)模型。此模型在上期制作“隐藏字”的文章中已经大展拳脚。

**二、**SDXL 的 ControlNet 模型

目前适用于 SDXL 的 ControlNet 模型有三个,包括 depth(深度图)、canny(线条检测)和 openpose(人物姿势检测)。

其中前两个模型为 Hugging Face 上一个称作 “diffusers” 的团队发布,这个团队为非盈利组织,由多名AI热衷者自发组建而成,发布过许多 diffusion 相关的模型。

Canny 模型生成效果示例

img

图源:Hugging Face/diffusers

Depth 模型生成效果示例

img

图源:Hugging Face/diffusers

而 openpose 模型则是由 Hugging Face 上的 “thibaud” 发布,他貌似是一个活跃于AI开源社区的大佬,之前还发布过适用于 SD 2.1 的ControlNet 模型。

Openpose 模型生成效果示例

img

图源:Hugging Face/thibaud

三、如何使用 SDXL ControlNet?

由于 SDXL 模型参数量较大,导致 ControlNet 的参数量也水涨船高,因此要想流畅运行 SDXL + ControlNet,需要较大的显存和内存。

性能要求:建议显存至少8G,推荐12G及以上,内存至少16G,推荐32G及以上。

如果想正常使用 SDXL ControlNet,ComfyUI 是最好的选择。后面如果能在 A1111 中使用 SDXL ControlNet,我会第一时间写一篇文章介绍,毕竟 A1111 的图形界面真的太直观,太好用了。

但是目前来看,A1111 还是比较适合运行 SD1.5 模型,对 SDXL 的支持仍然不理想,如果还要加上 ControlNet 的话,运行起来速度肯定奇慢无比,除非原作者能够专门针对 SDXL 进行底层代码优化,这工程量可能又有点大了。

因此,如果你真的很想玩转 SDXL 模型,我还是建议你开始学习使用 ComfyUI 的使用方法,这会大大要提高 SDXL 的运行速度,也能降低对电脑的性能要求。

使用 SDXL ControlNet 需要安装或下载的内容包括:

  • ComfyUI
  • ComfyUI Manager(ComfyUI的一个插件,安装后方便管理 ComfyUI 其它文件)
  • comfyui_controlnet_aux(ComfyUI 的自定义节点,运行 SDXL ControlNet 必备)
  • ControlNet 模型文件
  • 另外,建议自备一个梯子,这能省去安装和使用过程的很多麻烦

下面一一介绍具体步骤。

**1、**ComfyUI 的简介和安装方法点击这里

**2、**安装 ComfyUI manager(ComfyUI 管理器)

① 进入 ComfyUI_windows_portable\ComfyUI\custom_nodes 路径

② 在路径框内输入 cmd,回车,打开 cmd 面板

img

③ 输入 git clone https://github.com/ltdrdata/ComfyUI-Manager.git,回车

img

④ 等待下载完成后,重启 ComfyUI 即可

⑤ 如果下载失败,请尝试使用梯子

⑥ 重启后如果你可以在右侧看到 “manager” 选项框,表示安装完成。

img

**3、**安装 comfyui_controlnet_aux

① 点击 “manager” 选项框,选择 “Install Custom Nodes”。如果始终不弹出自定义节点列表,请检查是否开启梯子。

img

② 在右上方的框内输入 controlnet,然后点击 “search”,找到如下栏目

img

③ 点击右边的 “install”,需要注意,因为我已经安装了该自定义节点,所以才呈现两个选项,正常情况下为单个选项

④ 安装好后重启一下

⑤ 如果你能找到如下的栏目,则表示安装成功

img

**4、**下载 ControlNet 模型

请将下载的模型转移到 \ComfyUI_windows_portable\ComfyUI\models\controlnet 路径下,并将模型重命名以方便区分。

  • Depth(深度图检测)模型下载链接:https://huggingface.co/diffusers/controlnet-depth-sdxl-1.0/resolve/main/diffusion_pytorch_model.safetensors
  • Canny(边缘检测)模型下载链接:https://huggingface.co/diffusers/controlnet-canny-sdxl-1.0/resolve/main/diffusion_pytorch_model.safetensors
  • Openpose(人物姿势)模型下载链接:https://huggingface.co/thibaud/controlnet-openpose-sdxl-1.0/resolve/main/OpenPoseXL2.safetensors

另外,Depth 和 Canny 两种模型还提供了两种缩小版的模型,会损失部分性能,但能够大幅降低存储空间以及提高出图速度。原模型的大小约5G,有5x和7x的缩小版本,缩小后的模型大小分别约为 1G 和 0.7G。如果你的显存大于8G,可以下载原模型使用;如果你的显存小于8G,则还是推荐使用两个缩小版的模型。

  • 缩小5x的 Depth 模型下载链接:https://huggingface.co/diffusers/controlnet-depth-sdxl-1.0-mid/resolve/main/diffusion_pytorch_model.safetensors
  • 缩小7x的 Depth 模型下载链接:https://huggingface.co/diffusers/controlnet-depth-sdxl-1.0-small/resolve/main/diffusion_pytorch_model.safetensors
  • 缩小5x的 Canny 模型下载链接:https://huggingface.co/diffusers/controlnet-canny-sdxl-1.0-mid/resolve/main/diffusion_pytorch_model.safetensors
  • 缩小7x的 Canny 模型下载链接:https://huggingface.co/diffusers/controlnet-canny-sdxl-1.0-small/resolve/main/diffusion_pytorch_model.safetensors

四、SDXL ControlNet 使用方法

1、下载 .json 格式的文件,里边包含三个文件,分别为 Depth、Canny 和 openpose 的 ComfyUI 流程文件。下载链接:https://pan.baidu.com/s/1nUzxJ1oe3ur3POSiITiWWA?pwd=69il

2、打开 ComfyUI,点击 “Load”

img

3、根据自己的需要选择并加载其中一个 json 文件,这里我选择加载 SDXL+openpose.json

img

4、选择 SDXL 模型,这里我使用的是 SDXL 基础模型,你也可以使用其它 SDXL 模型

img

5、选择 ControlNet 模型,此设置下,只能为 openpose 模型

img

6、上传参考图

img

7、ControlNet 强度在下图所示位置调整

img

8、设置参考图处理分辨率。保持图片的长宽比,如果设置的长宽比与参考图不同,建议在 “crop” 选项中选择 “center”。此设置与 A1111 中的处理分辨率选项所起的作用基本相同。

img

9、此处可以设置要检测的对象,可以单独设置是否需要检测手部、身体或脸部

img

10、设置输出图片大小。建议输出图片的长宽比与原图保持相同。

img

11、设置采样参数。此处根据自己的喜好设置即可。点击节点左上方的灰色小圆点即可展开或折叠节点。

img

10、点击右上角的 “queue prompt” 即可生成图片。首次运行需要下载相关的预处理器模型文件,如果出现报错,请开启梯子

11、其它 ControlNet 的使用方法类似,加载不同的 .json 文件即可

五、总结

总的来说,已经陆陆续续有一些 SDXL 的 ControlNet 模型开始发布了,前面介绍的三种模型是相对来说传播比较广,性能也相对稳定的模型,可以在 ComfyUI 中完美运行。后续如果有更多 ControlNet 模型发布,我也会继续扩充这部分内容,敬请期待吧!

最后,需要注意的是,目前所有发布的 SDXL ControlNet 模型的表现还不是特别稳定,偶尔生成的结果会不理想,这是正常现象,多生成几张图片就好了。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

<think>好的,用户想了解如何在SDXL中使用ControlNet或者相关的集成教程。首先,我需要回顾一下现有的信息。根据提供的引用内容,SDXL ControlNet已经可用,特别是在ComfyUI中运行,并且有新的模型和预处理器。还有提到WebUI的ControlNet1.1.4版本支持SDXL1.0,包括Canny、Depth、Sketch和Openpose四种控制类型。 用户可能需要具体的步骤,比如安装方法、配置流程或者使用示例。我需要确保回答覆盖这些方面,同时引用相关的来源。例如,引用[1]提到了简易安装指南和ComfyUI节点,引用[4]提到WebUI的更新,所以应该分别说明两种环境下的集成方法。 另外,用户可能对模型的选择有疑问,比如是否每个ControlNet都需要单独下载,或者有没有联合模型。根据引用[3],controlnet-union-sdxl可以支持多个ControlNet类型,不需要单独下载,这一点应该强调,因为它提高了便利性。 还需要注意用户可能遇到的问题,比如兼容性或者安装错误,可以建议查看项目地址(如引用[2]和[3]的链接)获取最新信息。同时,是否需要代码示例或配置文件的指引?比如引用[1]提到的JSON文件,可能对用户有帮助,应该提及。 最后,生成的相关问题需要围绕安装步骤、模型区别、兼容性以及常见问题,这样用户能进一步探索需要的信息。确保回答结构清晰,分步骤说明,并正确引用来源。</think>### SDXLControlNet的集成方法 SDXLStable Diffusion XL)与ControlNet的集成主要通过模型适配和工具链支持实现。以下是具体操作步骤: #### 1. **环境准备** - **ComfyUI**:目前SDXL ControlNet主要在ComfyUI中运行[^1],需先安装ComfyUI环境。 - **模型下载**:根据需求选择模型: - 单一功能模型(如Canny、Depth)[^2][^4] - 联合模型`controlnet-union-sdxl`(支持Openpose/Depth/Canny等10种控制类型)[^3] #### 2. **安装流程** ```bash # 以Canny模型为例,通过Git克隆仓库 git clone https://gitcode.com/mirrors/diffusers/controlnet-canny-sdxl-1.0 # 将模型文件放入ComfyUI的custom_nodes目录 ``` #### 3. **节点配置** 在ComfyUI中: 1. 加载SDXL基础模型 2. 添加ControlNet预处理节点(如Canny边缘检测) 3. 连接ControlNet模型到生成流程 4. 调整控制权重(建议0.5-0.8) #### 4. **功能特性** - **多控制融合**:联合模型支持同时加载多个控制条件(如姿态+景深) - **精度优化**:SDXL+ControlNet在512x768分辨率下即可生成高精度细节
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值