Stable Diffusion 必学技能——从零开始训练专属 Lora 模型!

接触AI绘画的小伙伴,一定听过Lora。

Lora模型全称是:Low-Rank Adaptation of Large Language Models,可以理解为Stable-Diffusion中的一个插件,在生成图片时,Lora模型会与大模型结合使用,从而实现对输出图片结果的调整。

我们举个更容易懂的例子:大模型就像素颜的人,Lora模型就如同进行了化妆、整容或cosplay,但内在还在大模型的底子。当然Lora模型不仅仅限制于人物,场景、动漫、风格都有相对应的Lora。

作为公认最具性价比的模型训练手段,只需要不到20张图片和10分钟的训练,就可以将一个人物、物品甚至是风格融入到AI绘画中,所以说训练Lora是每一个AI绘画学者必备的技能!今天就跟着小元老师来进入学习吧~

所有的AI设计工具,模型和插件,都已经整理好了,👇获取~在这里插入图片描述

一、

配置要求和训练环境

**1、电脑配置:**N卡 gpu 6G以上;

**2、训练环境:**除了直接用训练脚本直接进行操作外,可以使用不同的训练图形化操作界面方便操作。可以用秋叶Lora模型训练器、朱尼酱的赛博丹炉,kohya-ss gui选一个即可,电脑配置不够用 可以选择 AutoDL、Google Colab青椒云桌面、揽睿星舟等云平台。

二、

训练数据集准备

1、训练素材处理:

首先确定你的训练主题,比如某个人物、某种物品、某种画风等,确定好后准备用于训练的素材图片,素材图的质量直接决定了模型的质量,好的训练集有以下要求:

· 不少于 15 张的高质量图片,一般可以准备 20-50 张图;

· 图片主体内容清晰可辨、特征明显,图片构图简单,避免其它杂乱元素;

· 如果是人物照,尽可能以脸部特写为主(多角度、多表情),再放几张全身像(不同姿势、不同服装);

· 减少重复或相似度高的图片。

素材图准备完毕后,需要对图片做进一步处理:

· 对于低像素的素材图,可以用 Stable Diffusion 的 Extra 功能进行高清处理;

· 统一素材图分辨率,**注意分辨率为 64 的倍数,**显存低的可裁切为 512x512,显存高的可裁切为 768x768,可以通过 birme 网站进行批量裁切,尺寸越大越吃显存,可能会出现报错学习卡死等问题。

2. 图像预处理

这一步的关键是对训练素材进行打标签,从而辅助 AI 学习。这里介绍两种打标签的方法:

方法一:把训练素材文件夹路径填写到 Stable Diffusion 训练模块中的图像预处理功能,勾选生成 DeepBooru,进行 tags 打标签。

方法二:安装 tagger 标签器插件,进行 tags 打标签。https://github.com/toriato/stable-diffusion-webui-wd14-tagger

选择批量处理, 输入目录填写处理好的图片目录,设置标签文件输出目录,阈值设置为 0.3(生成尽可能多的标签来描述图片内容),开始打标签。

3. 打标优化

预处理生成 tags 打标文件后,就需要对文件中的标签再进行优化,一般有两种优化方法:

· 保留全部标签:

**优势:**效率快省时省力的训练出模型,拟合度提高,且过拟合出现的情况是最低的。

**缺陷:**风格会变化过大,tag调用比较困难,训练时需要把epoch提高时间成本会被拉长。

· 剔除部分特征标签

**优势:**整合成少量的触发词tag后,调用方便,更精准还原角色特征。

**缺陷:**容易导致过拟合,泛化性也会降低,如果标签删太多会导致生成的画面非常固化。

三、

训练参数调节

至此,准备工作就完成了,可以开始准备正式训练LoRA了,这边使用秋叶大佬的Lora训练器SD-Trainer,选择新手训练模式。

进入新手模式后,需要选择训练LoRA使用的大模型:

底模文件路径,选择你要训练Lora使用的大模型,直接点击右侧的小文件夹选择即可。

训练数据集路径:在选择这一步之前,需要现在sd/lora-scripts-v1.7.3/train这个文件夹下建一个文件夹,在文件夹在里面建一个“数字_英文名”的文件夹,将之前打标好的图和标签一起复制到“数字_英文名”的文件中。

修改分辨率(之前数据集的尺寸是多少,这里就用多少)保存设置:保存模型的名称修改成你想要的名称,点击开始训练,就可以在终端看到它正在疯狂训练中…这个时间会比较久,慢慢等待就好。

这个过程会比较久,等待训练成功后会提示你训练成功。至此整个Lora的训练就完成了,你可以拿你训练好的Lora在WebUI上使用了。

这里分享给大家一份Adobe大神整理的《AIGC全家桶学习笔记》,相信大家会对AIGC有着更深入、更系统的理解。

有需要的朋友,可以点击下方免费领取!

在这里插入图片描述

AIGC所有方向的学习路线思维导图

这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。如果下面这个学习路线能帮助大家将AI利用到自身工作上去,那么我的使命也就完成了:
在这里插入图片描述

AIGC工具库

AIGC工具库是一个利用人工智能技术来生成应用程序的代码和内容的工具集合,通过使用AIGC工具库,能更加快速,准确的辅助我们学习AIGC
在这里插入图片描述

有需要的朋友,可以点击下方卡片免费领取!

在这里插入图片描述

精品AIGC学习书籍手册

书籍阅读永不过时,阅读AIGC经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验,结合自身案例融会贯通。

在这里插入图片描述

AI绘画视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,科学有趣才能更方便的学习下去。

在这里插入图片描述

要使用stable diffusion训练出自己专属的人像模型,需要按照以下步骤进行操作: 1. 数据收集:首先,需要收集足够数量和多样性的人像图片,这些图片应该包括各种不同的表情、角度和光照条件。这些图片将作为训练数据来训练模型。 2. 数据预处理:对收集到的数据进行预处理,包括裁剪、调整大小和格式转换等。确保所有的图片在输入到模型之前具有相同的尺寸和格式。 3. 网络架构设计:根据需要训练的人像模型来设计网络架构。可以选择使用现有的深度学习网络架构,如ResNet或VGG等,也可以自定义网络架构。这个网络将用于提取人像图片的特征。 4. 模型训练:使用稳定扩散(stable diffusion)方法训练模型。稳定扩散是一种用于生成对抗网络(GAN)的训练方法,通过在生成器(生成人像)和判别器(判断生成的图片是否为真实人像)之间进行迭代训练来提高生成的效果。 5. 优化与调参:在训练过程中,需要进行优化和调参,以提高模型的准确性和生成人像的质量。可以尝试不同的学习率、批量大小和训练迭代次数等参数,以找到最佳的配置。 6. 模型评估:在完成模型训练后,需要对生成的人像进行评估。可以使用一些评估指标,如峰值信噪比(PSNR)和结构相似度指标(SSIM),来评估生成的人像与真实人像之间的相似度。 7. 继续优化:如果评估结果不理想,可以根据需要进行进一步的优化。这可能包括增加训练数据的数量、改进网络架构或调整参数等。 通过以上步骤,就可以使用stable diffusion方法训练出自己专属的人像模型。这个人像模型可以用于生成逼真的人像,应用于各种创作和设计领域。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值