一文读懂Stable Diffusion(小白向)

目录

  • 什么是Stable Diffusion
  • 常见功能模型
  • Web UI操作界面演示
  • Web UI如何一键亲自上手

什么是Stable Diffusion

Stable Diffusion直译为稳定扩散,理解稳定扩散之前先通过两张图片介绍一下什么是前向扩散和逆向扩散。

所谓前向扩散(forward diffusion)过程就是向训练图像中不断地添加噪声,从而使其逐渐变为一张毫无意义的纯噪声图。

img

经过前向扩散猫的图像变成了随机噪声

反过来,逆向扩散(Reverse Diffusion)过程是从一个随机噪声图像开始恢复出猫图像的过程。

通常扩散模型包含前向扩散和逆向扩散两个过程(如下图上下两个部分)。

img

因此,Stable Diffusion可以理解为从一张完全高斯噪音开始,根据用户输入的要求,逐步剔除噪音,直到产生出用户所要图片的过程。

它的核心是如何降噪(降噪模型),而降噪模型的核心是噪声预测器(根据用户文本输入,预测噪声),即高斯图片->逐步减去噪声->得到用户所需图片。

这个过程里面一共用到了图像编码器、文本编码器、扩散模型、图像解码器四个神经网络模型。

扩散模型:上图中下部分,用户输入提示词(加条件),降噪模型根据噪声预测器去除噪声
编码器:上图中红色色块,文本编码器将文本指令转换为计算机可以理解的数字,图像编码器将图像转换为潜在空间中的向量,图像解码器将图像从潜伏空间翻译成像素

功能列表

  • 文生图
  • 修复图片
  • 扩展图片
  • 图生图

常见功能模型

在Stable Diffusion中,基于训练方式的不同,分为Checkpoint、LoRA、Textual Inversion、Hypernetwork

通常也分为大模型和小型模型(微调大模型)

Checkpoint 大模型

Checkpoint 是 Stable Diffusion 中最重要的模型(也称主模型或者基础模型),模型后缀一般为 .ckpt 或者 .safetensors

主模型在使用WebUI时左上角进行切换。

LoRA 和 LyCORIS 小模型

LoRA 和 LyCORIS 都属于微调模型,一般用于控制画风、控制生成的角色、控制角色的姿势等等。LoRA 和 LyCORIS 的后缀均为 .safetensors

WebUI中点击左侧的小红灯,然后在LoRA菜单中点击使用。也可以直接使用Prompt调用。

Textual Inversion 小模型

Textual Inversion是文本编码器模型,用于改变文字向量,后缀为 .pt 或者 .safetensors

WebUI小红灯中的Textual Inversion,也可以使用Prompt调用。

Hypernetworks 小模型

Hypernetworks 模型用于调整模型神经网络权重,进行风格的微调。

ControlNet

ControlNet是一个及其强大的控制模型,它可以做到画面控制、动作控制、色深控制、色彩控制等等。使用时需要安装相应的扩展才可(Extensions页面搜索 ControlNet 扩展,然后 Install 并 Reload UI),后缀为.safetensors

VAE 类似滤镜

VAE 模型一般用于图片亮度和饱和度的修正、画面较正和以及补光等。一般在绘图时如果出现图片亮度过低、发灰等问题时就需要用到。后缀为 .pt 或 .safetensors

VAE使用可能的入口

  • Settings 页面找到 SD VAE 菜单切换
  • Quicksettings list 配置
  • WebUI 的顶部

CodeFormer

CodeFormer 模型一般用于图片的修复,比如提高图片的分辨率、将黑白照片修改成彩色照片、人脸修复等等。

Extras 菜单中使用

操作界面演示

img

区域1、模型选择区

区域2、正向提示词

区域3、反向提示词

区域4、参数调整区

常用设置为区域4左上角采样器、右上角采样步数、左下角图像生成种子以及其上的提示词引导系数
中间区域的长宽也是影响图像出图效果的常见设置

区域5、生成按钮

区域6、小红点 - 打开lora设置等

区域7、图像展示区

区域8、VAE模型选择区

区域9、中文提示词输入插件

AI,有手就行_

模型:momoko
正向词:film portrait photography, 1girl, bare shoulders, wavy shoulder-length hair, serene, calm, (realistic detailed eyes, natural skin texture, realistic face details), soft dramatic lighting, depth of field, bokeh, vibrant details, finely detailed, hyperrealistic, 35mm film, hazy blur, filmg, lora:Style_FilmG3:0.8,tifa,lora:tifa_v2.3:0.8
反向词:cartoon, anime, sketches,(worst quality:1.3),(low quality:1.3), (deformed, distorted, disfigured), bad eyes, wrong nose, weird mouth, strange ears, bad anatomy, wrong anatomy, amputation, extra limb, missing limb, floating limbs, (bad teeth, mutated hands and fingers), disconnected limbs, mutation, ugly, disgusting, EasyNegative, bad_prompt_version2

效果图

img

以上图片中演示的功能能够在我的站点中直接打开工作台亲手制作,免软硬件安装+免配置环境

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

👉[[CSDN大礼包:《StableDiffusion安装包&AI绘画入门学习资料》免费分享]]安全链接,放心点击

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

1.stable diffusion安装包 (全套教程文末领取哈)

随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。

最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本

在这里插入图片描述

2.stable diffusion视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

在这里插入图片描述

3.stable diffusion模型下载

stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

在这里插入图片描述

4.stable diffusion提示词

提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

在这里插入图片描述

5.SD从0到落地实战演练

在这里插入图片描述

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。

这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值