Stable Diffusion 3 ComfyUI基础工作流保姆级详解 | 全网最全SD3解析

引言
Stable Diffusion 3 已经发布!就在 6 月 12 日,Stable Diffusion 3 的媒体模型终于开放下载。虽然在 Web UI 上还没有提供体验可以体验的方式,但我们已经可以通过Comfy UI来尝试最新的 Stable Diffusion 3 模型。这篇文章作者将详细介绍如何在Comfy UI 中部署和使用这个新模型。

Stable Diffusion 3 Medium 介绍
此次发布的 Stable Diffusion 3 Medium 与之前的 Stable Diffusion 3 Large 和 Stable Diffusion 3 Large Turbo 有所不同,后者是 8B 模型,而这次的 Medium 模型为 2B。相比之下,Medium 模型的参数量小得多。这个模型的参数量,作者的理解是这样的,虽然理论上参数越多,模型的复杂度也就越高,但也不能单单从参数量这一个维度来评判模型的好坏。如果 2B 参数的 Stable Diffusion 3 Medium 能在图像生成效果上可以与 3.5B 的 Stable Diffusion XL Base Model 竞争,甚至更强,这反而说明新发布的 Stable Diffusion 3 Medium 的效率更高。

在这里插入图片描述

在Comfy UI中运行 Stable Diffusion 3

环境准备:

在 Comfy UI 中部署 Stable Diffusion 3 很简单,需要满足以下两个条件:

更新Comfy UI到最新版本:

如果已经安装了 Manager 插件,点击 Update Comfy UI就可以了。
在这里插入图片描述

下载相关模型:

访问 Hugging Face 下载 Stable Diffusion 3 的相关模型。首次访问该页面时,可能需要同意用户协议才能看到模型下载页。
在这里插入图片描述

Stable Diffusion 3 的架构与之前的模型不同。官方提供了四个模型版本:

sd3_medium.safetensors:

不带任何文本编码器,需要下载 text encode 文件夹下的四个文件。
在这里插入图片描述

sd3_medium_incl_clips.safetensors:

可以直接生成图像,但不包含 T5xxlf的的文本编码器,所以性能会稍微差一些,但是需要的资源配置也会比较少。

后边两个较大的模型:

这两个模型类似 Stable Diffusion 1.5 和 XL,可以直接用于图像生成。区别在于 T5xxlf编码器的浮点数不同,理论上 15GB 的stable-diffusion-3-medium的模型对语义的理解效果最好,但也最耗资源。
但是这里要注意,对语义的理解效果最好,这并不代表这个出图的美学质量最高,这两者要区分一下。这里大家大概对这个模型有一个了解就行,后边也会给大家做这个实际的演示。

选择好适合自己的模型,将模型下载到 ComfyUI/models/checkpoint 文件夹下。如果是第一个模型,需要搭配clip 文件,则将其下载到 ConvUI/models/clip 文件夹下。

在这里插入图片描述

工作流部署
1、导入工作流

将下载的工作流文件拖入ComfyUI中。官方提供了三个基础工作流:基础工作流、多提示词工作流和放大工作流。我们以基础工作流为例:

基础工作流导入:

直接将文件拖入ComfyUI,即可载入。
在这里插入图片描述

更新模型路径:

官方工作流中的模型路径可能需要调整,替换为你下载的模型路径。
在这里插入图片描述

2、配置节点

官方基础工作流包括几个关键节点:

Triple Clip Loader:

加载 clip 模型。我们下载的最基础的sd3_medium.safetensors模型,需要这个节点配合使用 clip 和 T5xxlf 编码器。
在这里插入图片描述

Model Sample Node:

在这里插入图片描述

控制模型采样值,影响图像细节。值越高,细节越精细,但生成时间也越长。

Input:

控制反向提示词的作图进度。通过条件节点控制提示词的权重,调整参与作图的进度。图片尺寸注意一下,这里的备注是分辨率应该是在100万像素左右,而且这个长宽必须是64的倍数。但是我实际测试下来,这个宽高值只要给到8的倍数就可以。而且我们随便输一个数字,这个节点会为我们计算最近的八的倍数。比如说我们这里输一个564,它会自动变成这个568。我们点击这个出图,也是可以刷出来的。但是这个568并不是64的倍数,只是八的倍数。总之大家在这里输入这个图片尺寸的时候,就大概说一个比例就可以,它是会自动计算这个就近的值的。
在这里插入图片描述

Conditioning Nodes:

接下来是四个Condition控制节点,一个conditioningZeroOut节点,两个conditioningSimpleTimestepRange节点,一个conditioning(combine)的节点,这四个控制节点共同对反向提示词做了控制这四个节点不是必须的,也就是说我们不用这四个节点,直接将这个反向提示词连接到采样器,也是可以出图,这个节点群的作用,就是通过控制反向提示词在作图的进度中的参与度,从而控制反向提示词参与作图的权重。我们来具体看一下这次参数的意义,比如它默认是配了0-0.1,就是说这个反向提示词只参与作图进度的前10%,也就是从这个0到0.1,然后之后就不再参与,也就是说归零节点在作图进度是0.1到1的时候,将反向提示词的内容归零了。官方这样安排的作用,猜测是因为文本编码且对于反向提示词比较敏感,所以用减少参与进度的方法变相降低了反向提示词的权重。但是作者实际测试下来,即使这个反向提示词完完整整的参与了整个作图的进度,其实也是可以的,而且在某些情况下差别并不是很大。所以我说这四个节点可有可可有,是因为我们可以通过这种精确的控制做到一定程度的微调。可能是因为实际上就算没有这四个节点出图也不会报错。
在这里插入图片描述

采样器:

官方这里给到的步数是28步。我之前也说了,我们可以通过这个步数和Model Sample Node节点去配合,以达到一个性能和图片质量相对的平衡。从理论上来说,步数越多模型采样值越高,我们就会得到更精细的图片。但同时出图也会更耗时,对硬件的要求也会越高。
在这里插入图片描述

3、精简工作流

为了简化操作,可以将官方复杂的工作流精简为更传统的工作流形式:

**选择自带文本编码器的模型:

使用sd3_medium_incl_clips_t5xxlfp16.safetensors模型。

删除不必要的节点:

Triple Clip Loader 节点、Model Sample Node 节点和 Conditioning Nodes。

简化后的连接:

确保正反向提示词连接到模型节点。
在这里插入图片描述

实际演示
我们分别使用官方复杂工作流和精简后的工作流生成图像。结果显示,两者生成的图像基本一致。精简后的工作流不仅操作更简便,而且在效果上也没有显著差异。

在这里插入图片描述

总结
本文作者介绍了Stable Diffusion 3最新的模型,也带大家通过ComfyUI搭建了一个Stable Diffusion 3的工作流,希望大家对 Stable Diffusion 3 在ComfyUI下的使用方法有了更清晰的理解。Stable Diffusion 3 Medium 相较于之前的模型,在文本语义理解上更强。但关于其实际性能和效果的评价,仍需更深入的测试。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 9
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值