【AI绘画】Stable Diffusion实战:全模型总结和资源汇总(详解版)

在Stable Diffusion的ui界面有大量的模型选项(如下),同时AI绘画中大小模型眼花缭乱,层出不穷;那么如何理解和使用这些模型呢,本文做一个详细的解释

工具和文献参考

1 SD 模型解析

地址:https://spell.novelai.dev/

从 Stable Diffusion 生成的图片读取 prompt / Stable Diffusion 模型解析
功能:查看模型类型;文件大小;模型用法

2 模型下载:

1 Civitai: civitai.com/
2 weUI资源站:www.123114514.xyz/models
3 huggingface:huggingface.co/models

以上是主流SD模型下载站点,基本需要的模型都可以在里面找到

3 提示词模板

1 词图PromptsTools: prompttool.com/NovelAI
2 魔咒百科词典:aitag.top/
3 finding.art:finding.art/
4 NovelAI tag生成器 :wolfchen.top/tag/
5 AI魔导树:https://aimds.top/home
6 Danbooru 标签超市:https://tags.novelai.dev/

4 github以及文档地址

github:
github.com/AUTOMATIC1111/stable-diffusion-webui
wiki文档:
github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/
模型使用:
github.com/civitai/civitai/wiki/How-to-use-models#fine-tuned-model-checkpoints-dreambooth-models

模型概论

模型可以分为两大类:大模型 和 小型模型(微调大模型)

小型模型:Textual inversion (常说的Embedding模型)、Hypernetwork模型、LoRA模型(最常用)。
VAE模型:类似滤镜一样的东西,他会影响出图的画面的色彩和某些极其微小的细节。大模型本身里面就自带 VAE 的,但是一些融合模型的 VAE 烂掉了 (典型:Anything-v3),需要外置 VAE 的覆盖来救救

说明:由于 Textual Inversion 和 HyperNetworks 的训练难度较大,效果也通常不尽如人意,目前并没有成为模型微调的主流选择,目前微调主要使用的还是 LoRA模型
模型种类的辨别 可使用上面的第一个工具SD 模型解析 ,只需把模型拖进来就行

大型语言模型通常有几百B甚至几千B的参数量。如果直接拿这些大型模型来微调以执行特定任务,那么成本高、速度慢、负担重,性价比太低。因此,LoRA这种方法应运而生。

它通过将原来的大型语言模型冻结,然后在外部使用一个小插件来进行微调,而不是直接修改原有的大型模型。在完成微调后,再将它们合并在一起。

lora模型介绍:

We propose Low-Rank Adaptation, or LoRA, which freezes the pre- trained model weights and injects trainable rank decomposition matrices into each layer of the Transformer architecture, greatly reducing the number of trainable pa- rameters for downstream tasks.
我们提出了低秩自适应(Low-Rank Adaptation, LoRA),它冻结了预训练的模型权重,并将可训练的秩分解矩阵注入到 Transformer 架构的每一层,极大地减少了下游任务的可训练参数的数量。

其实就是加速微调:通过“矩阵分解”的方式,只需要微调更少的参数。
论文:https://arxiv.org/abs/2106.09685

模型种类及使用方法

具体使用可参考开头第4点文档

模型后缀名: ckpt,pt,pth,safetensors;
前三种是 pytorch 的标准模型保存格式,有一定的安全风险; safetensors 格式更加安全;

1 大模型(基础模型)
大模型:常见格式为 ckpt,大小在GB级别,常见有 2G、4G、7G模型;
存放目录:/models/Stable-diffusion;
使用:webui 左上角选择对应的模型

VAE 模型:常见格式为.pt; 存放目录:models/VAE;

2 Embedding (Textual inversion)
常见格式为 pt、png图片、webp图片,大小在 KB 级别
存放目录:/models/ embedding;

3 HyperNetworks

微调一个额外的网络结构,作用于 diffusion 过程的 attention 结构上常见格式为 pt。大小一般在几十兆到几百兆不等,有些可达到 GB 级别
存放目录:models/hypernetworks
使用:从设置中的Hypernetwork输入字段中选择

4 LoRA(最常用)
常见格式为 pt、ckpt,大小8m~144m不等
存放目录:models/lora
使用:show extra networks按钮,到Lora选项卡并根据需要刷新;或者 点击一个模型以后会向提示词列表添加类似这么一个tag,

模型推介与展示

模型众多原因:不同的模型可以带来不同的画风(人物/物体/风景/动作等等)

大模型:
生成多风格的Anythin4.5,生成逼真3D幻想风格的DreamShaper

1 ChilloutMix(基础真人大模型,但要搭配lora)

2 Anything v5(多风格的动漫模型)

3 stable-diffusion 1.5 2.0:较为通用的、现实模型,无法画出二次元图片

4 majicMIX(真人大模型)

基于KanPiroMix + XSMix + ChikMix三个模型融合而来,搞颜色的能力也极强哈哈;

4 GhostMix(2.5D大模型)

5 MIX-Pro(动漫风格合并模型)

6 Night Sky(极致画质和超大图像尺寸)

7 DreamShaper(生成逼真3D幻想风格)

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

在这里插入图片描述

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

在这里插入图片描述

若有侵权,请联系删除

  • 10
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值