AI绘图(6)stable diffusion 绘图 图生图

下面就开始介绍如何使用图生图这个模块了。

基础用法

简单使用

点击“图生图标签”,点击之后就看到了如下图所示的画面。

在"生成"按钮旁边有"CLP反推提示词"和"DeepBooru"反推提示词,这两个都是根据图片获取提示词,但是有不同的区别。

CLP反推提示词更适用于写实风格的照片反推提示词

DeepBooru更适用于二次元风格的照片反推提示词

下面来进行实战

得到写实风格

通过传入图片,并使用CLP进行反推提示词,最后在点击生成图片。

可以看到生成的图片与原图比较相似。

得到二次元风格

使用DeepBooru进行反推提示词,最后在点击生成图片。

注意:在进行绘制时,要选择对应的模型,不然就会生成不对应的图片。

可以看到,在使用反推提示词时,并没有再次添加新的提示词,这样生成的图片其实有些不太好。在实际中应该添加上新的提示词和负向提示词。

重绘幅度-Denoising

该参数默认值是0.75,表示的是生成的图片和原来的图片相似性有多大。取值范围:[0,1]

值越大,生成的图片和原来的图片越不相似。

我们来看看,设置不同的值时候,图片的差距是怎么样的。

首先,我们先设置为0

可以看到生成的图片与原图一模一样。

设置为0.25

可以看到生成的图片与原图差异不大,在脸部有变化。

设置为0.75

差异就很明显了。

设置为1

可以看到,差异变得更大了。

在一般情况下,Denosing设置的值一般在0.25到0.75左右,Denoising的值设置得越小,模型自由发挥的空间也就越小。

进阶用法

OpenPose Editor

OpenPose Editor是stable diffusion webui用于编辑人物姿势的插件。

默认情况下,我们的stable diffusion不会有这个tab,但是我们可以安装。可以参考下面的步骤进行安装


然后就在当前界面查找OpenPose,然后点击右边的Install,等待安装。

在完成安装后,到「设置/settings」点击【重新加载】就可以启用了

在生效后,我们的菜单上就多了一项「3D OpenPose」 ,我们可以自己修改姿势,当然,我们也可以上传一张照片,让他自动检测姿势。

在完成姿势的设置后,可以点击「文生图/Send to txt2img」或者「图生图/Send to img2img」,这样图片就出现在我们对应的页面了,或者点击下载也可以。

启用:是否启用ControlNet插件,不点击则不启用插件

低显存模式/Low VRAM:显卡显存在4G以下,选择它。

预处理器:我们使用ConltrolNet时,会上传一个模版图,这个预处理器就是来处理这个图的。使用OpenPose处理后的图,不需要预处理器,所以选none。

模型/Model:这里选的模型一般要和预处理的模型——对应。

Starting control SteplEnding Control Step: ControlNet模型从第几步开始引导图形生成以及何时退出。

可以看出生成的图片在动作上与原图有不同。

结语

那么,今天我们就介绍到这里。有兴趣的朋友可以关注我们,我们会持续更新本系列教程。

如果觉得不错,对你有帮助,可以关注我,在后续会发布更多的内容,也可以加入我们的星球,关注公众号,回复”星球“,获取邀请码,即可加入。如果不了解我们的星球是什么,可以看这篇文章,里面有详细介绍。

AI工具赋能,实现高效变现,实现提前下班_牧子川的博客-CSDN博客https://blog.csdn.net/qq_48764574/article/details/132250585

我正在「AI高效率【工作、学习】」和朋友们讨论有趣的话题,你⼀起来吧?
https://t.zsxq.com/11KVfN0RChttps://t.zsxq.com/11KVfN0RC

公众号 @AI宅玩貳号玩家,一个靠AI助力学习与工作的痴迷实践者。全网粉丝2万+,连续不间断更新小白也能玩的AI,让你提前2小时下班。

星球上面有什么:
电子竞赛专栏、深度学习专栏、AI辅助学习专栏、AI工具变现专栏等

适合人群:
在校学生:希望我的经验可以帮助你解决你遇到问题,
开发人员:分享自己的经验,并且可以扩宽自己的道路,学习到更多的内容
希望用副业赚钱:我们有用AI变现的方式,可以帮助你实现用副业赚钱

硬性的标准其实限制不了无限可能的我们,所以啊!少年们加油吧!

<think>好的,我现在需要帮助用户了解如何使用Stable Diffusion进行操作。首先,我得回顾一下用户提供的引用内容,确保回答准确。根据引用1,Stable Diffusion的核心功能,允许用户基于现有图片和提示词成新图片。引用2提到如何处理小区域像,比如放大重绘以修复脸部崩坏的问题。引用3则指出可以通过修改提示词自定义结果,比如改变头发颜色等。引用4介绍了涂鸦功能,用户可以在图片上涂鸦后成新像。 首先,我应该分步骤解释的基本流程,包括上传原、设置参数、输入提示词等。然后,可能需要提到不同的应用场景,比如局部重绘或涂鸦修改,这些在引用2和4中有提到。此外,用户可能关心如何优化结果,比如调整重绘幅度或使用ControlNet,这需要结合引用中的信息进行说明。 还需要注意用户可能的疑问点,例如如何处理小区域的细节问题,这时候可以引用引用2的内容,建议放大局部进行重绘。另外,提示词的重要性需要强调,根据引用3,提示词可以帮助定向修改像特征,比如颜色或风格。 可能还需要比较不同工具或方法,比如涂鸦与局部重绘的区别,如引用4所述。最后,确保回答结构清晰,步骤明确,并自然融入引用内容作为支持。同时,成的相关问题需要覆盖用户可能进一步探索的方向,比如参数调整、细节优化或高级技巧。</think>### 如何使用 Stable Diffusion 进行操作? Stable Diffusion(img2img)功能允许用户基于现有图片成新像,同时结合提示词(Prompt)对结果进行定向调整。以下是具体操作步骤和技巧: --- #### **一、基础操作步骤** 1. **上传原** 在 Stable Diffusion界面中上传需要改造的图片。支持的格式包括 PNG、JPG 等常见图片类型。 2. **设置参数** - **重绘幅度(Denoising Strength)**:控制新与原的差异程度(0-1)。数值越低越接近原,数值越高创意性越强[^1]。 - **分辨率**:建议与原保持一致,避免比例失真。 3. **输入提示词(Prompt)** 描述希望修改的方向,例如更换颜色、风格或添加元素。例如: ``` white hair, red eyes, cyberpunk background ``` 4. **成与调整** 点击成后,根据结果微调提示词或重绘幅度。若局部效果不佳,可结合局部重绘(Inpainting)功能进行细化[^2]。 --- #### **二、核心应用场景** 1. **局部细节修复** - 当原存在小区域模糊或崩坏(如人脸)时,可截取该部分单独放大重绘,再合并回原,利用模型对大区域去噪更清晰的特点提升效果。 2. **风格迁移** - 保留原,通过提示词修改风格(如“水墨画”“赛博朋克”)或元素(如“四季变换”)。 3. **涂鸦创作(Doodling)** - 在图片绘制粗略线条或色块,配合提示词成具象内容。例如,在天空区域涂鸦后输入“flying dragon”成龙形物[^4]。 --- #### **三、进阶技巧** 1. **ControlNet 辅助构** 使用 ControlNet 插件提取原的边缘、深度或姿势信息,确保的结构稳定性。 2. **多步骤迭代** - 首先成整体风格,再通过局部重绘细化细节。 - 示例流程:原 → 调整背景 → 优化人物服装 → 修复面部。 3. **负向提示词(Negative Prompt)** 排除不想要的元素,如“blurry”(模糊)或“deformed hands”(手部变形)。 --- #### **四、常见问题解决** - **脸部崩坏**:提高分辨率,或单独截取脸部重绘。 - **色彩偏差**:在提示词中明确颜色描述,或使用“Color Balance”插件校正。 - **构混乱**:降低重绘幅度(如 0.3-0.5),或通过 ControlNet 约束构。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牧锦程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值