超级干货,自学stable diffusion,看完这篇就够了

本期将从以下4个模块逐步讲解:

📌sd提示词怎么写

📌sd模型下载

📌sd实用插件

📌Control Net插件讲解

注意:文章内的链接不可直接跳转,需自行复制到浏览器打开!

1

sd提示词怎么写

提示词之间要用英文逗号隔开

提示词之间是可以换行的

正向提示词例如:

主体描述:一个女孩,长卷发,头发散开,五官精致,纤瘦。

场景描述:山顶的寺庙,山,水,树,云,太阳,天。

风格描述:中国风,禅意,浪漫主义。

画面需求描述(常规提示词,可通用):柔和的光线,8k质量,超级详细,伟大的杰作,壁纸,生动的色彩,逼真,美丽,好看。

补充描述:正常的的手指,完美的五官。

反向提示词:

常规提示词:

(badhandv4:1.2),(worst quality:2),(low quality:2),(normal quality:2),lowres,bad anatomy,bad hands,normal quality,((monochrome)),((grayscale)) watermark, easynegative ng_deepnegative_v1_75t,nsfw,

上面主要说的是一些质量差,丑,颜色单一之类的, 通用反向提示词,这个可以直接拿去用就行。

基于画面的需求进行详细反向描述:

例如这次的主体是人:畸形的手指,丑陋的五官,丑的。

左图没写反向提示词的,右图增加了反向提示词的

图片

提示词的权重:

提示词默认权重为1,如果你不进行权重的调整的话越靠前的提示词权重越高,但是如果你需要突出画面中某个元素,或者某个元素AI没有给你生成出来的话,就需要提高这个描述词的权重来突出这个内容。

加权重有两种方式:

1.加括号(), 增加一个括号就增加0.1的权重, (美丽的)就是1.1的权重,((美丽的))就是1.2的权重。

2.加括号和冒号(😃,例如:(美丽的:1.5),就是1.5的权重。

比如我想要画面里有花,但是因为描述词比较多, 花的权重没有突出,ai就可能自己取舍或者没有很明显的花,这时候我们就增加花的权重, 让花在画面里的比例更大。

下方左图提示词:a girl, with long curly hair, loose hair, delicate facial features, and slender features, (Temple on the mountaintop:1.5), mountains, water, trees, clouds, sun, sky,flowerChinese style, Zen, Romanticism Soft lighting, 8k quality, super detailed, great masterpiece, wallpaper, vivid colors, realistic, beautiful, and good-looking

下方右图提示词:a girl, with long curly hair, loose hair, delicate facial features, and slender features, (Temple on the mountaintop:1.5), mountains, water, trees, clouds, sun, sky,(flower:2)Chinese style, Zen, Romanticism Soft lighting, 8k quality, super detailed, great masterpiece, wallpaper, vivid colors, realistic, beautiful, and good-looking

图片

2

sd模型下载

常用模型下载网址:

https://www.liblib.art

https://civitai.com/

https://huggingface.co/

模型分为:

基础模型(大模型)

VAE模型(滤镜)

control net模型(插件辅助模型)

Lora模型(基于基础模型的风格调整模型)

模型安装位置:

图片

模型放置位置记得要放一张相同同命名模型效果图片,这样stable diffusion就会识别到,展示的时候会展示这个图片,能快速找到需要的模型,没有放图片的话就会像第一个这样,显示图片缺失,要靠看下面的模型名称来分辨模型的作用。

图片

3

sd实用插件

插件安装方法+地址:

图片

图片

Tag自动补全输入中文词语会弹出英文,直接点击使用https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
图库浏览器浏览自己之前生成过的所有图片,可以分类, 分级https://github.com/AlUlkesh/stable-diffusion-webui-images-browser.git
简体中文语言包汉化插件https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN
WD1.4 Tag反推插件上传图片,会帮你把图片分析为描述词,https://github.com/picobyte/stable-diffusion-webui-wd14-tagger.git
sd-webui-prompt-all-in-one预设了很多AI可以理解的描述词https://gitcode.net/ranting8323/sd-webui-prompt-all-in-one
控制网络(ControlNet插件)篇幅比较长,后面第4个模块着重讲解这块https://github.com/Mikubill/sd-webui-controlnet

一、Tag自动补全:

词库, 输入中文后会跳出适合AI理解的英文选项。

图片

二、图库浏览器:

1.存留自己往期生成过的效果图,并保留该效果图的生成参数(模型,lore,迭代步数,采样,宽高等都会保留,插件数据不会保留),把图片信息完全复制到正向提示里,然后点击生成底部的箭头,这张图片的所有参数就会自己匹配到相应的位置。

2.对图片进行评级,便于后期筛选。

图片

图片

三、WD1.4 Tag反推插件:

把图片给到AI,AI反推完成后记得点击卸载所有反推模型,不然会占内存。

图片

给反推插件的图像

图片

选用同款模型后,直接用反推的关键词生成的结果

图片

加入一个动作要求,生成的结果(结合ControlNet )

图片

四.sd-webui-prompt-all-in-one

图片

图片

4

Control Net插件讲解

一、控制网络(ControlNet插件):

https://github.com/Mikubill/sd-webui-controlnet

安装方法见插件安装

官方:

contorlnet模型下载地址:

https://huggingface.co/lllyasviel/ControlNet-v1-1/…

百度盘:

链接:

https://pan.baidu.com/s/125iUNB6fMjPcP2LKE3giFQ

提取码:lylb

Sd生成图片图片的三个要素:描述、模型、control net

二、Control Net有什么用?

1.线稿上色

2.小色稿-成稿

3.照片动作提取

4.线稿提取

1.线稿-上色(文生图)

首先准备一个线稿(干净一点的,因为sd不知道你什么线是要的,什么是不要的)。

图片

图片

图片

图片

2.小色稿-成稿(图生图)

图片

图片

要用没有线条或者同色系线条的小色稿来进行生成效果会更好

图片

以下分别是:

a.人工绘制产出(用时3天)

b.和需求方沟通好草图方向

c.草图+小色稿+AI产出,用时1天左右

图片

3.动作提取

根据具体需求绘制一个草图;

确定风格(找模型和Lora),直接对着sd说自己要的内容,输入关键词生成的结果;

图片

点击编辑,调整一下动作,让它更像草图;

加入一个动作要求,生成的结果(结合ControlNet );

调整动作结构图+换一个模型得到的结果(需要锁定种子)。

图片

4.线稿提取

图片

图片

图片
早点开启AI学习,给自己的人生来个翻天覆地的变化吧!

如果你也对AI技术感兴趣感兴趣,可以下方扫码免费领取一份AI技术入门资料包wx扫描二v码免费领取保证100%免费

在这里插入图片描述

在可预见的未来,随着AI大范围在职场推广,使用门槛降低,部分还在做重复工作的打工人会不可避免地被取代。

这也是为什么身边越来越多人都在学AI。

负责任地说,这是AI离普通人超近的一次。它——

  • 很简单: 只要你有一个浏览器,登录一个网页,会打字、会聊微信就能够直接使用。

  • 很实用: 任何上班族,无论你的工作涉及文字、图片、数字,或是办公软件全家桶,它都能成为你的高效助理。

  • 很聪明: AI如同一个六边形战士,当你有个绝妙点子,它能随时点亮技能树,用编程、写作、绘画技能把你的想法落地。
    图片
    随着人工智能的推广,具备AI技能的人将更容易适应未来岗位需求,成为早期吃到红利的稀缺人才。

  • 15
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Stable Diffusion(稳定扩散)是一种用于生成高质量文本的语言模型。它是由CSDN开发的C知道 AI团队开发的一种基于GPT的模型。Stable Diffusion模型通过对大量的文本数据进行预训练,学习到了丰富的语言知识和语义理解能力。它可以用于各种自然语言处理任务,如文本生成、对话系统、机器翻译等。 Stable Diffusion模型的核心是一个深度神经网络,它由多个Transformer模块组成。这些Transformer模块可以有效地捕捉文本中的上下文信息,并生成连贯、有逻辑的文本。Stable Diffusion模型还引入了一种称为Diffusion Mechanism(扩散机制)的技术,用于控制生成文本的稳定性和一致性。 与传统的基于规则或统计方法的文本生成模型相比,Stable Diffusion模型具有以下优势: 1. 生成文本质量高:Stable Diffusion模型通过大规模预训练学习到了丰富的语言知识,可以生成更加准确、流畅、自然的文本。 2. 上下文理解能力强:Stable Diffusion模型利用Transformer模块有效地捕捉了文本中的上下文信息,可以更好地理解和表达复杂的语义。 3. 可控性强:Stable Diffusion模型引入了Diffusion Mechanism技术,可以控制生成文本的稳定性和一致性,使得生成结果更加可控和可靠。 总之,Stable Diffusion是一种强大的语言模型,可以用于各种文本生成任务,并且具有高质量、上下文理解能力强、可控性强等优势。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值