Stable Diffusion热门模型一键下载及使用详解(新手友好版)

那么,接下来我们就要学习怎么使用Stable Diffusion 中最重要的各类模型了。

因为,相比于Midjourney,Stable Diffusion最大的优势就是开源。相比于Midjourney靠开发人员开发的少数模型,SD则每时每刻都有人在世界各地训练自己的模型并免费公开共享给全世界的使用者。(当然你可以通过训练自己的专有模型而专门用于某一用途,这也将成为你作为AI绘画者的最重要的核心竞争力之一)

因此,学会使用各类模型对于学习使用Stable Diffusion非常重要。

常用模型下载网址推荐

目前,模型数量最多的两个网站是https://civitai.com/https://huggingface.co/。civitai又称c站,有非常多精彩纷呈的模型,有了这些模型,我们分分钟就可以变成绘画大师,用AI画出各种我们想要的效果。

C站长这样:

img

你会看到很多模型的预览图被屏蔽了,需要你认证为成人才能浏览。至于为什么要成人才能浏览,想必大家也是懂的都懂。

也正是如此,该网站在国内是被屏蔽的。登录需要科学上网。

Huggingface则相对朴实无华一些,对模型的审核也会更加严格一些。但是好处在于不需要科学上网,而且网速很快

img

Huggingface界面如上。

它是一个综合性的网站,如果我们需要下载模型的话,选择Models。

进入之后,选择Text-to-Image,出来的就都是SD可以用的模型了。

img

除了C站和huggingface,其他的模型网站还有:

https://cyberes.github.io/stable-diffusion-models/

(SD的基础模型,不用科学上网,但是这些模型都一般般,意义不大)

https://rentry.co/sdmodels

(模型很多,但是界面没有C站友好,需要科学上网)

炼丹阁 (www.liandange.com)

(国内的网站,很多都是搬运的C站的模型,合规性未知,通过百度网盘下载)

LiblibAI(www.liblibai.com)

LiblibAI,号称是国内最大的原创AI模型分享网站,但其实很多都是搬运的C站的模型,不过确实也有不少人气原创模型发布者入驻了该网站。

不同模型的说明

如果你去自己下载模型,就会发现有各种不同类型的模型。

具体模型类型有checkpoint、Textual lnversion、Hypernetwork、Aesthetic Gradient、LoRA、LyCORIS、Controlnet、Poses、wildcards等等,看得人眼花缭乱。这些都是什么意思呢?

Checkpoint/大模型/底模型/主模型

Checkpoint模型是SD能够绘图的基础模型,因此被称为大模型、底模型或者主模型,WebUI上就叫它Stable Diffusion模型。安装完SD软件后,必须搭配主模型才能使用。不同的主模型,其画风和擅长的领域会有侧重。

checkpoint模型包含生成图像所需的一切,不需要额外的文件。但是它们体积很大,通常为2G-7G。

常见文件模式:尾缀ckpt、safetensors(如果都有提供的话建议下载safetensors,下同)

存放路径: \sd-webui-aki-v4\models\Stable-diffusion

模型的切换界面:

img

目前比较流行和常见的checkpoint模型有Anything系列(v3、v4.5、v5.0)、AbyssOrangeMix3、ChilloutMix、Deliberate、国风系列等等。这些checkpoint模型是从Stable Diffusion基本模型训练而来的,相当于基于原生安卓系统进行的二次开发。目前,大多数模型都是从 v1.4 或 v1.5 训练的。它们使用其他数据进行训练,以生成特定风格或对象的图像。这个我们后面还会专门开一个专题进行讲解。

不同模型在同一参数下的表现有时候可以用天差地别来形容,下面是个例子:

img

LoRA

当下最火的微调模型,可以将某一类型的人物或者事物的风格固定下来。它们通常为10-200 MB。必须与checkpoint模型一起使用。

现在比较火的Korean Doll Likeness、Taiwan Doll Likenes、Cute Girl mix都是真人美女LoRA模型,效果很惊艳。还有一些特定风格的LoRA也非常受欢迎,最著名的有墨心等。这个我们后面也会再开一个专题讲解。

img

常见文件模式:尾缀ckpt、safetensors、pt

存放路径: \sd-webui-aki-v4\models\Lora

有多个方式可以使用

方法1是在生成界面调取选用。这个的好处是可以自己设置预览图,从而有直观的感受。

img

而且部分LORA只支持这种方式使用(不过AI绘画日新月异,说不定哪天规则又变了~)

方法2是以插件形式使用。好处是可以很方便的灵活调用多个LORA,并对他们按着不同比例进行混合。

img

在启动器界面选择模型管理,点击LoRA模型(插件),点击添加模型,选择你要添加的LoRA模型,重启启动器。然后在WebUI界面选择相应的插件和权重比例即可。

img

VAE美化模型/变分自编码器

VAE,全名Variational autoenconder,中文叫变分自编码器。作用是:滤镜+微调。

有的大模型是会自带VAE的,比如Chilloutmix。如果再加VAE则可能画面效果不会更好,甚至适得其反。

顺便说一句,系统自带的VAE是animevae,效果一般,建议可以使用kl-f8-anime2或者vae-ft-mse-840000-ema-pruned。anime2适合画二次元,840000适合画写实人物。

常见文件模式: 尾缀ckpt、pt

存放路径: \sd-webui-aki-v4\ models\ VAE

模型的切换:

img

Embedding/Textual lnversion/文本反转模型和Hypernetworks

Embeddings 和 Hypernetworks 都属于微调模型,但目前Hypernetworks已经不太用了。

Embeddings/Textual lnversion中文翻译过来叫文本反转,通过仅使用的几张图像,就可以向模型教授新的概念。用于个性化图像生成。Embeddings是定义新关键字以生成新人物或图片风格的小文件。它们很小,通常为10-100 KB。必须将它们与checkpoint模型一起使用。

Embeddings 由于训练简单,文件小,因此一度很受大家欢迎。而且Embeddings 使用方法很简单,在安装之后,只要在提示词中提到它就相当于调用了,很方便。但由于Embeddings使用的训练集较小,因此出来的图片常常只是神似,做不到”形似“,所以目前很多人还是喜欢使用LORA模型。而且Embeddings 是一级目录,每次打开webui时都要加载一遍,太多了会影响webui的“开机速度”(但是不影响运行速度)。

不过有一些Embeddings 还是值得安装,比如EasyNegative这个Embeddings,里面包含了大量的负面词,可以减少你每次打一堆负面词的痛苦。

Embedding

常见文件模式: 尾缀pt

存放路径: \sd-webui-aki-v4\ embeddings

模型的切换通过文件名称来触发

Hypernetworks

常见文件模式: 尾缀pt

存放路径: \sd-webui-aki-v4\ models\ Hypernetworks

模型的切换通过文件名称来触发

DreamBooth模型

DreamBooth,可用于训练预调模型用的。是使用指定主题的图像进行演算,训练后可以让模型产生更精细和个性化的输出图像。

常见模式:尾缀ckpt、safetensors

常见大小:2G-7G

最新版本的DreamBooth是可以把那个Lora算法然后融合进来的

可以训练角色、画风、物件等,使用方法和主模型相同

训练路径:

img

LyCORIS模型

此类模型也可以归为Lora模型,也是属于微调模型的一种。一般文件大小在340M左右。不同的是训练方式与常见的lora不同,但效果似乎会更好不少。

其中本人较喜欢的“Miniature world style 微缩世界风格”就属于这类模型。

img

但要使用此类微调模型,需要先安装一个locon插件,直接将压缩包解压后放到StableDiffusion目录的extensions目录里。

插件地址

https://github.com/KohakuBlueleaf/a1111-sd-webui-locon

img

下载后直接解压缩在extensions中。

img

使用时注意,除了要将lora调入,还要在正向tag开头添加触发词

例如:这个微缩世界风格的lyCORIS的调用,正向描述语如下

mini(ttp), (8k, RAW photo, best quality, masterpiece:1.2), island, cinematic lighting,UHD,miniature, landscape, Crystal ball,on rock, lora:miniatureWorldStyle_v10:0.8

小技巧

如果你下载了一个模型,却不知道怎么安装,打开这个网站

https://spell.novelai.dev/

把你下载的模型拖进去,立马就会帮你解析,告诉你应该放在那里。

不过,由于AI绘画日新月异,有的模型,网站可能还来不及收集和解析,会无法解读。

img

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。
在这里插入图片描述

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
在这里插入图片描述

### Stable Diffusion 最新流行模型列表及特点 #### 1. Stable Diffusion 3.5 家族 Stable Diffusion 3.5 是 Stability AI 发布的最新本,提供了一个全面的产品线,包含多个不同特性的子型号[^1]。 - **基础 (Base Model)** 适用于广泛的应用场景,保持了系列一贯的强大性能和稳定性。对于初次接触该技术或寻求通用解决方案的人来说是个不错的选择。 - **增强图像细节处理能力的专业 (Pro Version with Enhanced Detailing Capabilities)** 此变体专注于提升生成图片的质量,特别是在复杂纹理再现方面表现出色。适合追求极致视觉效果的艺术创作者使用。 - **轻量化移动设备优化 (Lightweight Mobile Optimized Edition)** 专为智能手机和平板电脑设计,降低了运行所需的硬件资源需求,使得更多类型的终端都能够流畅体验AI绘图的魅力。 ```python # Python伪代码展示如何加载特定模型 from diffusers import StableDiffusionPipeline pipeline = StableDiffusionPipeline.from_pretrained('stabilityai/stable-diffusion-3.5-base') image = pipeline(prompt="A beautiful landscape").images[0] ``` #### 2. 噪声概念简介 为了更好地理解这些模型的工作原理,可以将噪声想象成观看老式电视机时屏幕上跳跃的小点或雪花现象。这种随机变化构成了算法学习的基础之一,帮助系统学会去除不必要的干扰因素并重建清晰的目标对象[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值