Stable Diffusion + Segment Anything试用

安装

  1. continue-revolution/sd-webui-segment-anything安装插件
  2. 分割模型下载后放到这个位置:${sd-webui}/extension/sd-webui-segment-anything/models/sam下,可以下载3个不同大小的模型,从大到小如下:vit_h is 2.56GB, vit_l is 1.25GB, vit_b is 375MB。如果显存不够的话,可以考虑使用小模型。当然效果也可能会有损失。 经过上述步骤后,插件就安装好了。

使用教程

图片分割

安装

  1. continue-revolution/sd-webui-segment-anything安装插件
  2. 分割模型下载后放到这个位置:${sd-webui}/extension/sd-webui-segment-anything/models/sam下,可以下载3个不同大小的模型,从大到小如下:vit_h is 2.56GB, vit_l is 1.25GB, vit_b is 375MB。如果显存不够的话,可以考虑使用小模型。当然效果也可能会有损失。 经过上述步骤后,插件就安装好了。

使用教程

图片分割

手动方式

  • 标注图片

左键标记成黑点代表想要的物体,右键标记成红点代表不需要分割的物体

  • 分割结果 使用Preview Segmentation按钮生成分割图

image.png 根据分割的多个结果中选择1个最满意的节点

使用GroundingDINO加提示词自动识别分割物

image.png

勾选Enable GroundingDINO,就会出现下面的GroundingDINO Model (Auto download from huggingface)GroundingDINO Detection Prompt,其中GroundingDINO Detection Prompt填上想要分割的物体,比如"dress" 点击Generate bounding box按钮,就可以看到分割效果,如下所示:

  • 分割结果 使用Preview Segmentation按钮生成分割图,和上面一样。

  • 扩充(可选)

image.png

如果分割图里面会有一些点没有完全覆盖的话,可以考虑扩充mask来使分割结果更好。比如上面手动分割图中裙子会有一些点没有覆盖到,可以考虑扩充像素。

点击Switch to Inpaint Upload,接下来就是使用【局部重绘(上传蒙版)】来做局部重绘了。

局部重绘(上传蒙版)

  • 除了把“重绘区域”修改成“仅蒙版”,这里大部分使用默认的参数。

image.png

  • 选择对应的controlNet,比如上面选择的是第1个分割结果,那就选择ControlNet Unit 1:
  1. 勾选启用、勾选Pixel Perfect,如果显存不够可以勾选低显存优化
  2. 选择预处理:inpait_global_harmonious,模型:control_v11_sd15_inpaint
  3. 其他参数默认

效果

使用X/Y/Z Plot脚本来替换提示词,如下:

red dress, pink dress,white dress,blue dress, frilled dress

效果如下:

image.png

可以看到还是比较完美的做了换装。

总结

本文简单使用了stable diffusion webui的Segment Anything来实验了换装操作,整体效果还是比较好的,当然目前选择的还是比较简单的图片,如果比较复杂的图片,是否还有这么好的效果,还需继续研究和试验。 当然作者认为它主要是为了方便做局部重绘时需要手动标记重绘区域时的不便,有了Segment Anything可以提高标记效率。

附录

遇到的问题

  1. 显存不够
torch.cuda.OutOfMemoryError: CUDA out of memory. ......

查看后台运行程序可能会时长出现上面的问题,这就是显存不够导致的,可以尝试把SAM Model修改成最小的vit_b,让流程跑起来。当然也可能目前该扩展还有一些显存的问题,看Issue上面也有挺多人遇到类似问题。

image.png

  1. 安装的版本不对
The detected CUDA version (12.1) mismatches the version that was used to compile PyTorch (11.7). Please make sure to use the same CUDA versions.

  • 需要保证保证nvcc --version显示的版本和nvidia-smi显示的版本保持一致。如果不一致,可能需要重新编译cuda版本。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

  • 25
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Stable Diffusion WebUI ChilloutMix/ControlNet是一种稳定的网络用户界面,适用于ChilloutMix/ControlNet系统。该系统是一种用于控制和管理网络的解决方案。 Stable Diffusion WebUI ChilloutMix/ControlNet具有以下特点和功能。首先,它提供了直观和用户友好的界面,使用户能够轻松地操作和管理系统。该界面具有清晰的布局和易于理解的图形化界面,使用户可以快速找到所需的信息和功能。 其次,Stable Diffusion WebUI ChilloutMix/ControlNet具有高度稳定和可靠的性能。它能够处理大量的数据和信息,并在工作中保持稳定,从而确保系统的高效运行。 此外,该用户界面还提供了多种功能,包括远程监视和控制系统,实时数据显示和记录,警报和通知管理,以及系统配置和设置等。通过远程监视和控制功能,用户可以在任何地点实时监视和控制系统的状态和运行情况。同时,实时数据显示和记录功能可以提供关于系统运行的实时数据,帮助用户更好地了解系统的性能。 此外,该用户界面还提供警报和通知管理功能,以便及时通知用户系统的异常情况。用户可以配置所需的警报条件,并接收警报和通知消息,以便及时采取措施。 最后,通过Stable Diffusion WebUI ChilloutMix/ControlNet,用户可以对系统进行配置和设置,以满足特定的需求和要求。用户可以根据系统的工作要求进行参数配置,并进行必要的设置和调整,以确保系统的最佳性能。 总的来说,Stable Diffusion WebUI ChilloutMix/ControlNet是一款稳定可靠、功能丰富的网络用户界面,能够有效地管理和控制ChilloutMix/ControlNet系统。它提供了直观和易于使用的界面,具有多种功能,可以满足用户对系统控制和监视的需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值