AI 创业指难(一) :Stable Diffusion AI 绘画怎么用

一. 前言

一年不到,AI对生活和工作的影响已经逐步体现。所以千万别掉队了,也许 AI 不能成为我们的主要工作,但是如何借助 AI 实现副业的扩展同样值得思考。

这一篇就来讲一个 AI 绘画工具,这个工具我也是才上手不久,所以我把这其中的一些笔记分享出来,希望大家都能融入到这个新的时代。

Stable Diffusion

stable diffusion 本质上是一个 AI 绘图生成工具,我想大家肯定听说过它的竞品 : Midjourney

之所以选择 Stable Diffusion 的主要原因就是它免费,本地就可以搭建,开源资源丰富 , 适合我们这些业务人员去折腾。

二. 安装和使用(安装包文末领取)

基础安装太简单了,果然玩图的大佬都是热心肠,这里推荐直接使用秋叶大佬整合包。

image.png

启动的效果就是这样,入门使用只需要关注2个点 :

  • 模型管理 : 在各模型网站下载对应模型后添加进去即可
  • 一键启动 : 直接启动运行

几个好用的模型网站 :

我这边也整理了3000+常用模型包,涵盖各样风格,需要的同样文末领取!

三. 使用方式

image.png

整个主界面大致如下 ,来简单说一下其中这些关键的信息 :

👉 001 : 基础模型是什么?

模型就是我们在上述模型网站中找到的喜欢的模型,模型很多,我们只需要找到自己想要生成的去下载即可

image.png

下载完模型后,将模型添加到工具的模型管理中,然后在主界面模型旁边点击刷新就能应用上去。

模型也有对应的类型,这里简单概述下 :

  • LoRA :通常用于人物和概念,体积小且控图效果好,常用于固定角色特征
  • Checkpoint : 体积较大,用于控制画风
  • Embedding : 适用于控制画风和人物,相对速度中等
  • Dreambooth : 可以用于人物,概念和画风,对配置要求较高

对我这种新手来说基本上不关注这个,模型训练可能是后续的实践中才需要使用到。

👉 002 : VAE 模型是什么 ?

Variational autoenconder,中文叫变分子编码器 ,主要的作用就是滤镜。在出图的时候会影响颜色和线条

一般大模型里面都会自带 VAE , 出图如果有问题才可能需要用到它

image.png

尝试了一下,左边的为原厂模型,右边加了其他 VAE. 虽然不明显,但是在颜色上还是有一些色差。

👉 003 / 004 : 提示词怎么写 ?

提示词分为正向提示词和反向提示词 ,

  • 正向提示词
    • 通过提示词 来指定生成的图像
    • 提示词的顺序会影响到图像的生成 ,前面的提示词权重更大
  • 排除词
    • 用于指定图像中不期望出现的东西 (低质量,小图,五官不全)
  • 权总
    • stable diffusion 支持对提示词进行权重设置,点击提示词按 Ctrl + 上下方向键

那么提示词该怎么去找,去哪里找呢?

方案一 : 通过 Stable Diffusion 的工具反推提示词

image.png

直接把图片拖进去,就能得到对应的提示词,后续直接使用即可。

方案二 : 去模型网站或者图站查找提示词

image.png

一般下载的模型下面都能找到一些效果图,点进去就能看到对应的提示词

方案三 : 找 GPT 问或直接写

image.png

👉 005 :步数的作用是什么 ?

  • 迭代每一步都是在前一步的基础上进行处理
  • 低的采样步数会导致画面计算不完整,高的采样步数仅在细节处进行优化,对比输出速度得不偿失

👉 006 :采样方式有什么用 ?

采样方式指的是模型生成图像时所采用的策略,决定了如何从模型的输出分布中选择样本。

上文界面里面的采样方式主要有以下区别 :

算法速度步数优 / 缺点场景
Euler a20-301. 适当的步长出图更快 2. 步长过大会过度拟合,图像变形
3. 富有创造力ICON , 二次元,小场景
Euler20-30- 基于Karras论文
LMS30+1. 效果一般,比较抽象 , 质感OA,饱和度与对比度偏低,更倾向于动画的风格
2. 线性多步调度器(Linear multistep scheduler)
Heun20-30- 基于Karras论文
DPM220-30该采样方法对tag的利用率最高,几乎占80%+
DPM2 a25-30几乎与DPM2相同,对人物可能会有特写
DPM++ 2S a20-30
DPM++ 2M20-30
DPM++SDE
DPM++2S a Karras- 在每个时间步长中执行多次操作
- 同等分辨率下细节更多
- 步长越多细节越明显
写实人物,复杂场景
DPM++ 2M Karras20-301. 是二阶扩展概率模型求解的算法 2. 可以在速度和质量之间平衡
DPM ++ SDE Karras8-12
DDIM10-151. 步数越多细节越丰富 2. 收敛快,可以快速生成高质量图像
写实人像,复杂场景刻画
UniPc20-30
DPM adaptive10
LMS Karras20会大改成油画的风格,写实不佳
DPM2 Karras20-30
DPM2 a Karras20-30

👉 007 :关于图像大小 ?

  • 图像越大,从而需要往图片中加入更多的元素,越容易出现低质量的信息
  • 如果图像大小一样,相同的提示词可能会出现类似的结果,但是大小一旦变化,图像的变化就极大
  • 图像越大,花的时间必然就会越长
  • 总结 : 图像不是越大越好,过大的图像反而影响整体质量。

关于宽度 :

  • 推荐 512 x 512 ,一般模型都是在这个基础上进行计算的
  • 宽带必须是 8 的倍数
  • 宽度不适合太大,容易出现图像崩溃
  • 高度同理

👉 008 :CFG Scale (提示词引导系数 )

  • 控制图像与提示词之间的契合度,这个值越高,生成的图像也越接近你的提示词
  • 这个值一定程度上会降低图像质量,因为相当于限制了范围
  • 建议 7- 15

其他功能补充 :

随机种子的作用

  • 随机种子可以帮助我们锁定图像范围 ,使用相同种子的时候可以生成类似的图像
  • 相同的随机种子可以提高图像的可重复度和相似性,用于调优和优化模型
  • 当使用 -1 随机种子时图像完全随机,完全无规律

image.png

这里直接将该软件分享出来给大家吧~

这份完整版的stable diffusion资料我已经打包好,需要的点击下方添加,即可前往免费领取!

1.stable diffusion安装包

随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。

最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本

在这里插入图片描述

2.stable diffusion视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

在这里插入图片描述

3.stable diffusion模型下载

stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

在这里插入图片描述

4.stable diffusion提示词

提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

在这里插入图片描述

5.SD从0到落地实战演练

在这里插入图片描述

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。

这份完整版的stable diffusion资料我已经打包好,需要的点击下方添加,即可前往免费领取!

  • 30
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用稳定扩散算法(stable diffusion)训练自己专属的人像模型是一项基于AI技术的创新工作。下面是一些步骤,帮助你了解如何训练该模型。 首先,你需要准备一个包含大量人像图片的数据集。这个数据集可以包括各种类型的人像,以确保模型的泛化能力。确保图像质量高,具有足够的多样性是非常重要的。 接下来,你需要使用稳定扩散算法来训练模型。这种算法能够有效地处理图像数据,并生成高质量的人像。你可以使用深度学习框架,如PyTorch或TensorFlow来实现这个算法。根据你的需求和喜好,可以选择已经存在的模型架构,如U-Net等,也可以根据自己的特定要求设计新的架构。 训练过程中,你需要进行数据预处理、模型训练和模型优化等步骤。数据预处理包括图像裁剪、缩放和增强等操作,以提高模型的准确性和鲁棒性。模型训练阶段可以使用已标注的数据进行有监督训练,也可以采用无监督或半监督方法。模型优化则包括调整超参数、正则化和使用合适的损失函数等。 在训练完成后,你可以使用你的专属人像模型进行图像生成或编辑。该模型可以通过输入一张未经过加工的人像图像,生成具有艺术性的、更具个性的人像。你可以通过在模型的输入中添加一些约束,如风格引导或语义控制,来进一步控制图像的生成过程。 总的来说,使用稳定扩散训练自己的专属人像模型需要一定的深度学习和计算机视觉知识。但它为用户提供了一种独特而个性化的数字艺术创作体验。通过不断地学习和实践,你可以进一步完善和改进你的模型,以实现更加出色和逼真的人像生成效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值