[AIGC] Stable Diffusion - 各类模型介绍

英文原文:https://stable-diffusion-art.com/models/

Stable Diffusion模型checkpoint 模型是预先训练的稳定扩散权重,用于生成特定风格的图像。

模型生成什么样的图像取决于训练图像。如果训练数据中不存在猫,则模型将无法生成猫的图像。同样,如果您只用猫图像训练模型,它只会生成猫。

我们将介绍哪些模型、一些流行的模型以及如何安装、使用和合并它们。

微调模型

什么是Fine-tuning(微调)?

微调是机器学习中的常用技术。它需要一个在宽数据集上训练的模型,并在窄数据集上进行更多训练。

经过微调的模型往往会生成与训练中使用的图像相似的图像。例如,Anything v3 模型是使用动漫图像进行训练的。因此,它默认生成动漫风格的图像。

人们为什么要制作稳定扩散模型?

稳定扩散基础模型很棒,但并不擅长所有事情。例如,它会在提示中生成带有关键字“anime”的动漫风格图像。然而,生成动漫子类型的图像可能很困难。您可以使用针对该子类型的图像进行微调的自定义模型,而不是修改提示。

下面的图像是使用相同的提示和设置但使用不同的模型生成的。

  • Realistic Vision:逼真的照片风格。
  • Anything v3:动漫风格。
  • Dreamshaper:写实绘画风格。

在这里插入图片描述
使用模型是实现某种风格的简单方法。

模型是如何创建的?

自定义检查点模型是通过 (1) 额外训练和 (2) Dreambooth 制作的。它们都以稳定扩散 v1.5XL 等基本模型开始。

Additional training(额外的训练)是通过使用您感兴趣的附加数据集训练基本模型来实现的。例如,您可以使用老式汽车的附加数据集训练 Stable Diffusion v1.5,以使汽车的美感偏向老式子类型。

Dreambooth 由 Google 开发,是一种将自定义主题注入文本到图像模型的技术。它仅适用于 3-5 个自定义图像。您可以给自己拍几张照片,然后使用 Dreambooth 将自己放入模型中。使用 Dreambooth 训练的模型需要特殊的关键字来调节模型。

检查点模型并不是唯一的模型类型。我们还有文本反转(也称为嵌入)LoRALyCORIShypernetwork。我们将在本文中重点讨论检查点模型。

流行的稳定扩散模型

有数千个经过微调的稳定扩散模型。这个数字每天都在增加。以下是可用于一般用途的模型列表。

Stable diffusion v1.4

在这里插入图片描述
模型页面

下载链接

v1.4 模型由 Stability AI 于 2022 年 8 月发布,是第一个公开可用的稳定扩散模型。

它是一种通用模型,能够生产各种款式。

自 v1.5 版本发布以来,大多数人都已转向该版本。

Stable diffusion v1.5

在这里插入图片描述
模型页面

下载链接

v1.5 由 Stability AI 合作伙伴 Runway ML 于 2022 年 10 月发布。该模型基于 v1.2 进行了进一步训练。

模型页面没有提及改进是什么。与 v1.4 相比,它产生的结果略有不同,但尚不清楚它们是否更好。

与 v1.4 一样,您可以将 v1.5 视为通用模型。根据我的经验,v1.5 作为初始模型是一个不错的选择,并且可以与 v1.4 互换使用。

Realistic Vision

在这里插入图片描述
Realistic Vision v2 适合生成任何真实的东西,无论是人、物体还是场景。

详细了解如何生成现实的人

模型下载链接

DreamShaper

在这里插入图片描述
Dreamshaper 模型针对介于照片写实和计算机图形之间的肖像插画风格进行了微调。它很容易使用,如果你喜欢这种风格,你就会喜欢它。

模型页面

下载链接

SDXL model

在这里插入图片描述
SDXL 模型是著名的 v1.5 和被遗忘的 v2 模型的升级版。

使用 SDXL 模型的好处是

  • 更高的原始分辨率 – 1024 像素,v1.5 为 512 像素
  • 更高的图像质量(与 v1.5 基础型号相比)
  • 能够生成清晰的文本
  • 很容易生成较暗的图像

Anything V3

在这里插入图片描述
模型页面
下载链接

Anything V3 是一种经过训练可生成高质量动漫风格图像的特殊用途模型。您可以在文本提示中使用 danbooru 标签(例如 1girl、白发)。

它可以将名人塑造成胺风格,然后与插画元素完美融合。

它的一个缺点(至少对我来说是这样)是生产出的女性体形比例失调。我喜欢用 F222 来调和它。

最佳稳定扩散模型

有数千种可用的稳定扩散模型。其中许多是专用模型,旨在生成特定风格。你应该从哪里开始?

除了我刚才提到的这些,以下是我经常使用的一些最佳模型。

Deliberate v2

在这里插入图片描述
Deliberate v2 是另一个必备模型(很多!),可以渲染逼真的插图。结果可能出奇的好。每当您有良好的提示时,请切换到此模型,看看您会得到什么!

下载链接

F222

在这里插入图片描述
下载链接

F222 最初是为了生成裸体而训练的,但人们发现它有助于生成具有正确身体部位关系的美丽女性肖像。与您可能想象的相反,它非常擅长生成美观的服装。

F222适合拍摄人像。它很容易产生裸体。在提示中包含“连衣裙”和“牛仔裤”等服装术语。

在这篇文章中找到更真实的照片风格模型。

ChilloutMix

在这里插入图片描述
模型页面

ChilloutMix 是一个用于生成照片质量的亚洲女性的特殊模型。它就像 F222 的亚洲版本。与韩语嵌入 ulzzang-6500-v1 一起使用来生成像 k-pop 这样的女孩。

与 F222 一样,它有时会生成裸体。在提示中抑制“dress”和“jeans”等衣柜术语,在否定提示中抑制“nude”。

Protogen v2.2(动漫)

在这里插入图片描述
Protogen v2.2 非常经典。它生成具有良好品味的插图和动漫风格图像。

Protogen v2.2 模型页面

下载页面

GhostMix

GhostMix 采用 90 年代经典动漫《攻壳机动队》风格进行训练。您会发现它对于生成机器人和机器人很有用。

下载链接

Waifu-diffusion

在这里插入图片描述
Waifu Diffusion 是一种日本动漫风格。

Inkpunk Diffusion

在这里插入图片描述
模型页面

下载链接

Inkpunk Diffusion 是一个经过 Dreambooth 训练的模型,具有非常独特的插画风格。

使用关键字:nvinkpunk

寻找更多型号

Civitai 是下载模型的首选地点。

Huggingface 是另一个很好的来源,尽管该界面不是为稳定扩散模型设计的。

Stable diffusion v2 模型

在这里插入图片描述
Stable Diffusion v2 是两个官方的 Stable Diffusion 模型。 v2模型的主要变化是

  • 除了 512×512 像素外,还提供 768×768 像素的更高分辨率版本。
  • 您无法再生成露骨内容,因为色情材料已从培训中删除。

您可能会假设每个人都已从 v1.5 开始使用 v2 模型。然而,稳定扩散社区发现 2.0 模型中的图像看起来更糟。人们也很难使用名人和艺术家名字等强大的关键词。

2.1 模型部分解决了这些问题。开箱后的图像看起来更好。更容易产生艺术风格。

现在,大多数人不使用 v2 模型。我们使用 v1 和 SDXL。但如果您想尝试 v2 模型,请查看这些提示以避免常见的挫败感。

如何安装和使用模型

这些说明适用于 v1 和 SDXL 型号。

要在 AUTOMATIC1111 GUI 中安装模型,请下载检查点模型文件并将其放置在以下文件夹中

stable-diffusion-webui/models/Stable-diffusion/

按左上角检查点下拉框旁边的重新加载按钮。

在这里插入图片描述
您应该会看到刚刚放入的检查点文件可供选择。选择新的检查点文件以使用该模型。

或者,选择 txt2img 或 img2img 页面上的检查点选项卡并选择模型。

在这里插入图片描述
如果您不熟悉 AUTOMATIC1111 GUI,快速入门指南中包含的 Colab 笔记本中已预加载了一些模型。

请参阅 v2.0v2.1 的说明。

有关使用 SDXL 模型的信息,请参阅 SDXL 文章

CLIP Skip

某些模型建议使用不同的“CLIP Skip”设置。您应该遵循此设置以获得预期的样式。
在这里插入图片描述

什么是 CLIP skip?

CLIP Skip 是一项功能,可在稳定扩散的图像生成过程中跳过 CLIP 文本嵌入网络中的最后一些层。 CLIP 是 Stable Diffusion v1.5 模型中使用的语言模型。它将提示中的文本标记转换为嵌入。它是一个包含许多层的深度神经网络模型。 CLIP Skip 指的是要跳过最后几层。

在 AUTOMATIC1111 和许多稳定扩散软件中,CLIP Skip of 1 不会跳过任何层。 CLIP Skip of 2 跳过最后一层,依此类推。

为什么要跳过一些 CLIP 层?神经网络在信息通过各层时对其进行总结。越早的层,包含的信息越丰富。

跳过 CLIP 图层会对图像产生巨大的影响。许多动漫模型都是使用 CLIP Skip 2 进行训练的。请参阅下面的示例,其中使用了不同的 CLIP Skip 但具有相同的提示和种子。
在这里插入图片描述
更改任何内容的剪辑跳过 v3. (CLIP 跳过建议为 2。)

在 AUTOMATIC1111 中设置 CLIP skip

您可以在“Settings” 页面>“Stable Diffusion”>“Clip Skip”中设置“Clip Skip”。调整值并单击Apply Settings。

但如果您需要定期更改 CLIP Skip,更好的方法是将其添加到“快速设置”中。转至Settings页面 > User Interface > Quicksettings list.。添加 CLIP_stop_at_last_layer。单击应用设置并重新加载 UI。

Clip Skip滑块应出现在 AUTOMATIC1111 的顶部。
在这里插入图片描述

合并两个模型

在这里插入图片描述
用于合并两个模型的设置。

要使用 AUTOMATIC1111 GUI 合并两个模型,请转至Checkpoint Merger并选项卡,然后在Primary model (A) 和Secondary model (B) 中选择要合并的两个模型。

调整乘数(M)来调整两个模型的相对权重。将其设置为 0.5 会将两个具有同等重要性的模型合并。
按“运行”后,新的合并模型将可供使用。

合并模型的示例

以下是将 F222 和 Anything V3 合并为相同权重 (0.5) 的示例图像:
在这里插入图片描述
比较 F222、Anything V3 和 Merged(各 50%)

合并后的模型介于现实的 F222 和动画 Anything V3 风格之间。它是生成人物插画艺术的一个非常好的模型。

稳定扩散模型文件格式

在模型下载页面上,您可能会看到多种模型文件格式。

  • Pruned
  • Full
  • EMA-only
  • FP16
  • FP32
  • .pt
  • .safetensor

这很令人困惑!您应该下载哪一个?

Pruned、Full、EMA-Only 模型

一些稳定扩散检查点模型由两组权重组成:(1) 最后一个训练步骤后的权重和 (2) 最后几个训练步骤的平均权重,称为 EMA(exponential moving average指数移动平均值)。

如果您只想使用该模型,则可以下载仅 EMA 模型。这些是您使用模型时使用的权重。它们有时被称为pruned models(修剪模型)。

如果您想通过额外的训练来微调模型,则只需要full model(即由两组权重组成的检查点文件)。

因此,如果您想使用 pruned 或 EMA-Only 模型来生成图像,请下载它。这可以节省一些磁盘空间。相信我,您的硬盘很快就会填满!

Fp16 和 fp32 模型

FP代表浮点数。这是计算机存储十进制数的方式。这里的小数是模型权重。 FP16 每个数字占用 16 位,称为半精度。 FP32 采用 32 位,称为全精度。

深度学习模型(例如稳定扩散)的训练数据非常嘈杂。您很少需要全精度模型。额外的精度只会存储噪音!

因此,请下载 FP16 模型(如果有)。它们大约有一半大。这可以为您节省几GB!

Safetensor 模型

原始的pytorch模型格式是.pt。这种格式的缺点是不安全。有人可以在其中打包恶意代码。当您使用该模型时,代码可以在您的机器上运行。

Safetensors 是 PT 模型格式的改进版本。它的作用与存储权重相同,但不会执行任何代码

因此,请在可用时下载 safetensors 版本。如果没有,请从可信来源下载 PT 文件。

其他模型类型

四种主要类型的文件可以称为“模型”。让我们澄清一下,这样你就知道人们在谈论什么。

  • Checkpoint models检查点模型是真正的稳定扩散模型。它们包含生成图像所需的所有内容。不需要额外的文件。它们很大,通常为 2 – 7 GB。它们是本文的主题。
  • Textual inversions文本反转(也称为embeddings嵌入)是定义新关键字以生成新对象或样式的小文件。它们很小,通常为 10 – 100 KB。您必须将它们与检查点模型一起使用。
  • LoRA 模型是检查点模型的小补丁文件,用于修改样式。它们通常为 10-200 MB。您必须将它们与检查点模型一起使用。
  • Hypernetworks超网络是添加到检查点模型的附加网络模块。它们通常为 5 – 300 MB。您必须将它们与检查点模型一起使用。

总结

我介绍了稳定扩散模型、它们是如何制作的、一些常见的以及如何合并它们。当您心中有特定的风格时,使用模型可以让您的生活更轻松。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
"AIGC稳定扩散"是指人工智能全球中心(AIGC)通过稳定的扩散方法来推广和普及人工智能技术。 首先,AIGC稳定扩散的目标是将人工智能技术应用于各个领域,从而促进社会的发展和进步。通过稳定的扩散,AIGC能够确保人工智能技术的普及和应用是在可靠和可持续的基础上进行的。 其次,在AIGC稳定扩散的过程中,重点关注技术的质量和适用性。AIGC积极筛选和评估现有的人工智能技术,并与专家和机构合作改进和优化。通过确保技术的高质量和适用性,AIGC能够提供可靠和稳定的解决方案,满足不同行业和领域的需求。 另外,AIGC稳定扩散还注重普及和教育。AIGC通过举办培训、研讨会和交流活动,向各界人士普及人工智能技术的基础知识和应用方法。定期发布人工智能技术的最新发展和成果,提供资源和支持,帮助更多的人了解和应用人工智能技术。 最后,AIGC稳定扩散还重视合作和共享。AIGC与各国和地区的研究机构、企业和政府合作,共享资源和经验,促进人工智能技术的交流和发展。通过建立良好的合作网络,AIGC能够更好地推广人工智能技术,建立全球范围内的合作关系,实现共同的发展目标。 总而言之,AIGC稳定扩散是为了推广和普及人工智能技术而采取的稳定方法。通过质量和适用性的保证、普及和教育的重视,以及合作和共享的策略,AIGC致力于实现人工智能技术的广泛应用,推动社会的发展和进步。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值