Stable Diffusion ComfyUI 基础教程(六)图片放大与细节修复

我们都知道文生图、图生图、局部重绘,生成的图片分辨率太小,怎么办?我们可以通过模型放大、潜在放大、非潜在放大、分块放大多种方式对图像进行放大。

放大工作流:

我们以文生图后的图片进行放大,在开始之前我们打开之前搭建的文生图基础流程

模型放大:
  1. 模型放大是最简单,也是效果最差的放大方式,他就和我们在 Web UI 上使用后期处理进行放大一样,只是通过放大算法对图像直接放大(也就是图像空间放大),这也会导致我们放大的图片损失细节,甚至看起来会很腻很假;

  2. 虽然上面说的一无是处,但是使用它搭配在其他的放大方式上效果就大大增强,我们先看一下怎么使用模型放大吧;

  3. “右键-新建节点-图像-放大-图像通过模型放大”

  1. 左侧的“放大模型”通过拖拽连接“放大模型加载器”(“右键-新建节点-加载器-放大模型加载器”进行连接也可以);

  2. 选择自己需要的放大模型,我给大家准备好的 17个放大模型,都放在网盘里面了(管理器的安装模型也可以下载放大模型),其中BSRGAN、ESRGAN、SwinIR_4K、RealESRGAN_x4plus 效果不错;

  3. 左侧的“图像”连接“VAE解码”输出的图像,右侧直接连接保存图像就可以了;

  1. 有没有发现我们没有设置图片放大的倍数,其实模型放大是直接根据所选放大模型进行放大的,一般都是放大4倍。
潜在放大:
  1. 这时候我们插个知识点,在 Web UI 上我们进行高分辨率修复的时候,我们会看到在选择放大算法时,有 Latent 开头的几个算法可选择,这其实就是我们进行潜在放大所需要用到的流程;

  1. 潜在放大是在潜空间进行放大,也就是对 Latent 进行缩放,然后对缩放后的 Latent 进行重新采样,进而增加细节达到放大的目的;

  2. “右键-新建节点-Latent-Latent缩放/Latent按系数缩放”,可以看到我这边放了两个节点,这两个节点一个是需要设置宽高、一个是根据倍数放大,根据自己的需要选择就好;

  1. 如果前几节课学明白了,后面的就不用我多说了吧,再串连一个采样器就可以了;

  2. 下方是我连接好的工作流,这里我选择的是“Latent按系数缩放”,这个比较方便一些,大家也可以选择“Latent缩放”

注意:降噪数值一定要在0.5左右,数值过低会有崩坏的情况。放大倍数也不要太大,太大同样会有崩坏的情况

非潜在放大:
  1. 非潜在放大可以理解成模型放大和潜在放大的结合,先进行模型放大后对模型放大的图片进行重新采样;

  2. 是不是有思路了?不过不要忘了对模型放大后的图片进行缩放(因为直接对放大4倍的图片进行重新采样会占用太多显存并且添加的细节不够);

  3. 我们想要得到更高像素的图像可以多次叠加“非潜在放大”流程,只要你的显存够大,你想要多大的图都可以。

分块放大:
  1. 非潜在放大要得到一张 4K 图需要很高的显存,但是我们可以通过分块放大,使用较小的显存出更大的图。

  2. 分块放大其实就是把一张图切成 n 个块,然后对小块进行重新采样,最后把小块拼接在一起。他的好处是可以使用更小的显存得到一张更大分辨率的图;

  3. 分块放大是需要用到一个插件的:
    https://github.com/BlenderNeko/ComfyUI_TiledKSampler.git(压缩包解压安装、git拉取、管理器安装都可以)

  4. 我们需要用到这个插件中的“分块采样器”,“右键-新建节点-采样器-K采样器(分块)”,他同样有一个高级采样器,这个我们要进行 refiner 模型细化的时候可以使用。

  1. 来看一下和我们的普通采样器有什么区别吧,只多了三个操作,分块宽度、分块高度、无缝分块策略

  2. random(随机):也是默认策略,它是通过在水平和垂直的分块图像之间随机交替采样来消除拼接痕迹(效果最好,与 uni 采样器不兼容);

  3. random strict(随机严格):因为 random 很有可能会对有边框的图像产生不好的效果,所以 random strict 使用遮罩来确保不裁剪边框图块(效果和random 类似,但不适用于 SDE 采样器)。

  4. padded(填充):为每块图像在四周提供一定的范围进行叠加来减少拼接缝隙,正因为这样,他需要对多达 4 倍的图块进行采样(效果不如 random ,速度慢,支持 uni 采样器)。

  5. simple(简单):看名字就知道,最简单的策略,就是直接一块块的去噪(效果最差,速度最快,不建议使用)

  6. 数值不要太小(根据你放的后图片的大小决定,比如我要放大成2048*2048,我是设置为1024*1024的)

  7. 数值越小分的块越多,分的块越多也就越慢;也会增加出现伪影的几率(比如你生成猫,你会在某些小区域得到猫的影子,即使你降噪数值小也会出现不同程度的伪影)

  8. 分块宽度、分块高度:是指我们放大时每一次进行分块采样时绘制的宽高;

  9. 无缝分块策略:是指在我们分块采样的每一块相接处会出现明显的拼接痕迹,而无缝分块策略就是通过不同的方式减少拼接痕迹的,有四种可选策略,random(随机)、random strict(随机严格)、padded(填充)、simple(简单),我建议使用 random 和 random strict。

  10. 是不是以为当成普通采样器连接就可以了,,,,那当然不是,在“正面条件”中间要把 ControlNet 的 tile 连接进去;

  11. “右键-新建节点-加载器-ControlNet加载器”,加载器选择“tile”的(tile模型我会放在网盘里面,其他的ControlNet使用方法我会在第八节课讲给大家)

  1. “ControlNet加载器”连接“ControlNet应用”,直接拖拽连接就可以(或:右键-新建节点-条件-ControlNet应用)

  2. 我们“ControlNet应用”两边的“条件”连接“正面条件/提示词”,图像连接“VAE解码”输出的图像;大模型连接“K采样器(分块)”上的模型;

  3. 这时候我们就剩下设置出图大小了,我们可以在“VAE解码的图像”连接过来一个“图像缩放/按系数放大”(或:模型放大流程,我个人测试下来,模型放大效果最好);

  4. 然后对图像进行“VAE编码”然后连接到“K采样器(分块)”上,这不用细说了吧,图生图的流程;

  5. 注意:降噪同样不要太低,分块宽高根据情况设置,如果出现伪影就增大数值

UltimateSDUpscale(终极SD放大):

  1. 我们使用时每次都要搭建一遍“非潜在放大或分块放大”等流程会很麻烦,使用“ComfyUI_UltimateSDUpscale”插件会更简单。

  2. 下载地址:
    https://github.com/ssitu/ComfyUI_UltimateSDUpscale.git(压缩包解压安装、git拉取、管理器安装都可以)

  3. “右键-新建节点-图像-放大-SD放大”,这个插件有两个功能,一个是细节修复+放大(SD放大),一个是细节修复(SD放大(不放大))。我们主要用到的是 SD(放大),他们的区别只是是否连接放大模型;

  1. 这个放大插件可以说是把上方的“模型放大+分块放大”进行了一个组合;

  2. 我们可以看到这个节点和我们上面用的“K采样器(分块)”很相似对吧,这个地方我们主要去关注几个操作就可以了

  3. Linear(直线):逐行进行拼接(更快,但是会有几率出现伪影,我们默认使用这个)

  4. Chess:棋盘拼接 ,可以理解成“X”形状的拼接样式(慢一些,出现伪影的几率小)

  5. mode_type(模式类型):有两个可选择

  6. mask_blur(模糊):拼接区域的羽化程度,默认8就可以,融合不好的情况下适当调高

  7. Tile_padding(分块区域):相邻融合像素,和我们上面说的 padded(填充)策略一样,不过这个插件我们可以设置融合像素的值

  8. seam_fix_mode(接缝修复模式):有三种模式选择,Band Pass(速度快)、Half Tile(质量好)、Band Pass+Half Tile(速度和质量做一个折中)

  9. 连接就更简单了,连接一个“放大模型加载器”,其他的就按照名字连接就可以;

总结:

  1. “模型放大”最快也是效果最差,最不推荐的。我常用的是“非潜在放大”和“UltimateSDUpscale 插件放大”;

  2. 每个放大方式都有利弊,我们完全可以多种方式一起进行放大,比如:潜在放大/非潜在放大 + UltimateSDUpscale 插件放大,这样我们放大后的图片效果更好,细节更丰富;

  3. 我们 refiner 模型细化、图生图、还有我们以后要学习的 文/图生视频 等都可以用这几种方式进行放大;

文章使用的大模型、Lora模型、SD插件、示例图片等,都已经上传到我整理的 Stable Diffusion 绘画资源中。有需要的小伙伴文末扫码自行获取。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 10
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
stable diffusion是一种图像修复算法,可以应用于老照片的修复中。老照片由于年代久远、储存条件不佳等原因,常常出现褪色、色彩变化、模糊等问题。使用stable diffusion可以有效地修复这些老照片的问题,恢复照片的原貌。 stable diffusion算法的基本原理是通过对图像进行扩散和平滑操作,减少图像中的噪声和瑕疵,同时保持图像的细节和结构。修复老照片时,可以先对照片进行数字化处理,将照片转换为数字图像,然后使用stable diffusion算法对图像进行修复修复老照片的步骤如下:首先,在照片中标识出需要修复的区域,比如褪色的部分、撕裂的部分等。然后,将照片数字化,转换为数字图像。接下来,使用stable diffusion算法,对照片中需要修复的区域进行扩散和平滑操作,将图像中的噪声和瑕疵减少。在修复过程中,可以调整算法的参数,以达到最佳的修复效果。最后,对修复后的图像进行一些后期处理,比如调整光暗、对比度等,使修复后的照片更加清晰、明亮。 通过stable diffusion修复老照片不仅可以修复照片中的问题,还可以保留照片的原汁原味。而且,使用该算法修复照片的过程相对简单,只需进行一些基本的操作,即可修复老照片,使之焕发新的生命力。不过,需要注意的是,修复老照片时要保持适度,避免破坏照片的历史价值和纪念意义。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值