(教程)Stable Diffusion中如何实现换装?

127 篇文章 2 订阅

图片

如何用AI换装?

直接进入教程,我们将会用到Stable Diffusion WebUI 中安装的 Inpaint Anything 扩展,如何你还没有SD本地环境,可以先查看其他配置本地SD环境(安装实在是太复杂了,对Mac用户也不友好)或者使用一些在线的Stable Diffusion WebUI工具,比如我演示的是xxSheep平台来演示的。

图片

第1步:上传图片到Inpaint Anything 中

图片

图片

点击Inpaint Anything 标签页下,将图片拖动到输入图像框中。

第2步:运行分割模型

等待图片上传完成后,点击“运行Segment Anything”按钮,然后等待,你就能看到这样的语义分割图,不同的颜色代表了图片中识别出的不同对象。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

第 3 步:创建蒙版

使用画笔在分割图中标识出想要重绘的裙子区域,不需要整件衣服涂黑,每件衣服每个部分点一个点就可以了,鼠标放在图片上时按键盘S键可以放大图片,按R复原。

图片

然后点击“创建蒙版”按钮。

图片

如果发现蒙版未覆盖您想要的所有区域,请返回分割图并绘制更多区域。

我发现裙子的肩带没有被选中,返回分割图增了一个点。得到如下图:

图片

图片

“展开蒙版区域”这个是翻译的问题,英文为“Expand mask region”,意思是向外圈稍微扩展一下遮罩的大小。

“根据草图修剪蒙版”是指:从蒙版中减去绘制的新区域。

“根据草图添加蒙版”是指:将绘制的新区域添加到蒙版中。

这里就不展开详述了。现在蒙版已经很满意了。

第 4 步:将蒙版发送至重绘

可以在Inpaint Anything扩展中重绘,但更推荐将蒙版发送到图生图页面进行重绘。

图片

点击“仅蒙版”这个标签页,然后点击获取蒙版,就会获得如下一张黑白的蒙版页面,如果你有Photoshop使用经验的话,这个蒙版和PS中的蒙版是一样的。

图片

点击“发送到图生图”按钮

图片

返回到图生图的标签页下,我们就能看到如下的图片和蒙版出现在“上传重绘模版”的标签下。

图片

图片

点击“自动检测尺寸”的按钮,将重绘的图片尺寸自动改为输入蒙版的尺寸:

图片

然后选择你喜欢的大模型,最好是真实系的大模型,我这里以<基础模型_ XL_v1.0 refiner 1.0>为例。

在提示词中输入:

Woman in pink floral dress.

图片

蒙版内容处理选择:潜空间噪声或者空白潜空间,其他项保持默认即可。

图片

图片

生成数量可以改为一次生成4张。

图片

看一下重绘后的效果,呃。。。。。。虽然是换装了但是也没有全换,别着急,我们可以使用下面的技巧进一步提升图片的质量。

Advanced inpainting techniques

进一步绘制照片

  1. 方法一 调整重绘照片的尺寸

    如果你清楚潜空间扩散原理的话,就会知道我们图像都是缩小到512x512px的更小图去进行加噪和去噪的,如果我们的原图比例很特殊就可能导致画面会出现一些畸变,没关系 我们也不用了解具体的原理,只要尽量让宽或高是512、768、1024 这样的尺寸就好。

    图片

重复上面的操作,再来看我们重绘后的照片。

图片

图片

2.方法二 替换大模型

如果图片重绘效果不理想,可以替换掉大模型,使用真实视觉修复模型。

图片

我们将基础大模型换成了其他的真实系模型。比如:麦橘、DreamShaper等。

图片

图片

图片

3.方法三 自定义服装的图案

使用ControlNet IP-Adapter 换上你喜欢的图案。

图片

我需要用到两个控制网络,

第一个使用Canny

启用:✅

预处理器:Canny 硬边缘

模型:control_v11p_sd15_canny [d14c016b]

控制权重:0.6

图片

第二个使用IP-adapter

启用:✅

预处理器:ip-adapter

模型:ip-adapter_sd15_plus [32cd8f7f]

控制权重:0.9

图片

然后点击生成按钮。

图片

还可以将您想要的衣服的精确图像放入 IP adapter 的图像控制窗中,如图

图片

图片

图片

赶快试试吧,关注我会持续分享更多MJ,SD,leonardo的生图技巧,放心关注免费分享。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

👉[[CSDN大礼包:《StableDiffusion安装包&AI绘画入门学习资料》免费分享]]安全链接,放心点击

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

零基础AI绘画学习资源介绍

👉stable diffusion新手0基础入门PDF👈

(全套教程文末领取哈)
在这里插入图片描述

👉AI绘画必备工具👈

在这里插入图片描述

👉AI绘画基础+速成+进阶使用教程👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉大厂AIGC实战案例👈

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉12000+AI关键词大合集👈

在这里插入图片描述
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

  • 14
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Stable Diffusion 是由 Stability AI 公司开发的一款预训练人工智能模型,主要用于生成高质量的文本,但它不是开源项目,所以直接获取其源代码是不可能的。通常,像 GPT-3、DALL-E 2 这样的大型预训练模型的源代码是不对外公开的,因为这涉及到大量的商业机密和技术细节。 如果你对自然语言处理(NLP)的开源工具库感兴趣,例如像 Hugging Face 的 transformers 库,它提供了基于 Transformer架构的模型,你可以通过 GitHub 获取源代码并进行学习和使用。对于自定义模型或深度学习项目,你可能会编写自己的代码,包括模型训练、微调和部署的部分。 要获取和使用开源 NLP 模块,可以按照以下步骤操作: 1. **选择开源库**:研究并选择一个适合你的需求的开源 NLP 库,比如 TensorFlow, PyTorch 或者 fastai。 2. **克隆仓库**:使用 Git 工具从 GitHub (https://github.com/huggingface/transformers) 或其他代码托管平台下载源代码。 3. **安装依赖**:确保你的开发环境安装了必要的 Python 包和框架(如 pip install transformers)。 4. **了解API**:阅读文档和教程,理解如何加载模型、进行前处理和生成文本。 5. **编写代码**:根据你的项目需求,编写代码来加载模型、提供输入、处理输出等。 6. **训练和微调**:如果模型需要训练或微调,按照库提供的指南进行。 7. **评估性能**:通过测试数据验证模型的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值