深入浅出学习Stable diffusion之ADetailer面部修复

本文详细介绍了如何在SD页面上安装和使用面部修复插件ADetailer,涉及模型检测、安装步骤、yolo模型的下载和AIGC技术的应用前景。作者还提供了AIGC学习资源的链接,强调了动手实践的重要性。
摘要由CSDN通过智能技术生成

今天们一起学习ADetailer(面部修复),文末扫码可获取全部详细资料。

首先在SD的页面我们可以找到这个插件:

这个功能的详细描述为:使用检测模型自动检测、遮罩和修复。

ADetailer 是稳定扩散 webui 的扩展,类似于 Detection Detailer,只是它使用 ultralytics 而不是 mmdet

整合包的玩家不需要安装,如果用的是A1111webui可以进行下载再安装。

下载安装地址:https://github.com/Bing-su/adetailer.git

基于A1111webui安装

(来自 Mikubill/sd-webui-controlnet)

  1. 打开“扩展”选项卡。

  2. 打开选项卡中的“从 URL 安装”选项卡。

  3. 输入“扩展的 git 存储库的 URL”。https://github.com/Bing-su/adetailer.git

  4. 按“安装”按钮。

  5. 等待 5 秒钟,您将看到消息“已安装到 stable-diffusion-webui\extensions\adetailer。使用“已安装”选项卡重新启动”。

  6. 转到“已安装”选项卡,单击“检查更新”,然后单击“应用并重新启动 UI”。(下次还可以使用此方法更新扩展。

  7. 完全重新启动 A1111 webui,包括您的终端。(如果您不知道什么是“终端”,您可以重新启动计算机:关闭计算机并重新打开。

现在,您可以直接从“扩展”选项卡安装它。

您无需从huggingface下载任何模型。

关于yolo模型这个是脸部细节调整模型。

具体的模型参数详见下文:

如果你的sd上没有加载此类模型,可在在拥抱脸上面找到:

算了,还是我帮大家找吧:https://huggingface.co/Bingsu/adetailer

这个页面会更新最新的yolo模型,AI资深玩家请务必记好,因为整合包有时候更新可能会慢,你可以自己下载安装抢先体验最新yolo模型。

关于模型是什么,怎么用,大家可以回顾二篇进行补充学习。

安装步骤:

复制这个页面然后点击安装就这么简单

之后点击对勾重启

yolo模型安装:

在拥抱脸的yolo模型需要安装在如下文件夹中:

这样子你的面部修复插件和最新yolo模型插件就安装完毕了。如果需要看yolo的模型插件的详细介绍建议在拥抱脸上面仔细阅读。

另外很多网友说新版安装拓展后直接可用了,无需额外下载模型,小编认为还是自己找文件夹去安装比较好,万一喂饭的up主某一天被请去喝茶了,那你怎么办?既然决定学习AI,就要从最基础的学起,避免之后的重复学习。

深入浅出学习:

这个部分是启用状态,用不是人类的话来详细说就是ADetailer model 细节设计师模型的状态开启,深入理解就是是否开启确定要检测的内容。有对勾就是启用,没有就是禁用。

这个部分就是正向提示和负向提示,深入理解就是申请提示和负面提示。另外如果留空,它将使用与输入相同的内容。

字面意思:跳过

跳过 img2img。实际上,这是通过将 img2img 的步数更改为 1 来实现的。

深入理解:

"img2img"是一种图像到图像的转换方法,它可以用于控制AI的创作方向,例如颜色,构图等。在这个过程中,你提供了一个用作起点的图像,而不是由种子号生成的噪声。噪声被添加到你用作img2img的初始图像的图像中,然后根据提示继续扩散过程

当你将img2img的步数更改为1时,实际上你是在尽可能地减少图像的变化。这意味着,你的输入图像在经过img2img处理后,输出的图像将尽可能地接近原始图像。这就是所谓的"跳过img2img",因为你几乎没有改变原始图像。这种方法可以用于那些你只想对图像进行微小调整的情况。。

测试环节之把你变开心:

以上为原图

1:

选择图生图

2:上传不开心的你

3:重绘幅度为0,因为你不需要改变动作

4:启用ADetailer,输入正向提示:开心happy,开心的面部happy facial, 以及反向提示词:不开心unamused,

然后生成:

结果对比:

这是正常思维用法,我们再用img2img改为1的运算法则试一试:

前提没有动重绘幅度,但是启用了img2img改为1的运算方法:

我们看到,人物还是真人,没有变成动漫人物,但是脸部会有动漫倾向。也就是说:重绘幅度调节的是整体变化,skip img2img改1调节的是细节变化,但是当两者都开启的情况下,重绘幅度会在skip img2img控制范围内(这个图是脸部)进行改变(偏动漫风)。

我们可以用PS思维理解一下,当你开启了这两个,相当于在一个画面中用曲线工具框了一个范围,然后在这个范围内进行细节调整。

对于细节调试可以在输入词和模型设置上面多次尝试,以便生成最优效果,顺便说一下以上图像只是一次性生成的,多次生成感觉可能会更加接近本人。另外关于yolo中的修改手,眼睛的,都可以进行自己尝试哦。

今天就请大家多多训练自己的AI吧!

文章使用的AI绘画SD整合包、各种模型插件、提示词、GPT人工智能学习资料都已经打包好放在网盘中了,有需要的小伙伴文末扫码自行获取。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 21
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
stable diffusion是一种图像修复算法,可以应用于老照片的修复中。老照片由于年代久远、储存条件不佳等原因,常常出现褪色、色彩变化、模糊等问题。使用stable diffusion可以有效地修复这些老照片的问题,恢复照片的原貌。 stable diffusion算法的基本原理是通过对图像进行扩散和平滑操作,减少图像中的噪声和瑕疵,同时保持图像的细节和结构。修复老照片时,可以先对照片进行数字化处理,将照片转换为数字图像,然后使用stable diffusion算法对图像进行修复修复老照片的步骤如下:首先,在照片中标识出需要修复的区域,比如褪色的部分、撕裂的部分等。然后,将照片数字化,转换为数字图像。接下来,使用stable diffusion算法,对照片中需要修复的区域进行扩散和平滑操作,将图像中的噪声和瑕疵减少。在修复过程中,可以调整算法的参数,以达到最佳的修复效果。最后,对修复后的图像进行一些后期处理,比如调整光暗、对比度等,使修复后的照片更加清晰、明亮。 通过stable diffusion修复老照片不仅可以修复照片中的问题,还可以保留照片的原汁原味。而且,使用该算法修复照片的过程相对简单,只需进行一些基本的操作,即可修复老照片,使之焕发新的生命力。不过,需要注意的是,修复老照片时要保持适度,避免破坏照片的历史价值和纪念意义。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值