Stable diffusion(四)

训练自己的Lora

【DataSet】【Lora trainer】【SD Lora trainer】

前置的知识
  • batch size:模型一次性处理几张图片。一次性多处理图片,模型能够综合捕捉多张图片的特征,最终的成品效果可能会好。但是处理多个batch size也意味着更大的显存。同时batch size和Step的关系也是相反的。多batch size意味着每张图片能分到的step变小了。
  • Epoch轮数。重复训练几轮的意思。
  • Step:步数。 Step = 图片数量 * 重复次数(repeat) * 轮数(epoch) ÷ batch size。距离,假设你有50张图片,每张图片的repeat设置为10次,训练10个epoch。那么 Step = 50 * 10 * 10 ÷ 2= 2500步。
    在这里插入图片描述
  • Learning rate:学习率就代表着收敛的速度。我建议是可变的学习率,前面几个step大点,后面几个step小点。常见的学习率调整算法
  • Learning rate scheduler:
    在这里插入图片描述
  • Optimizer:优化器,这个后面进阶再去了解
  • network alpho:缩放因子防止模型过拟合
  • network dim :模型的层数 network alpho推荐设置为 netwrok dim的一半。
  • Lora的选型
  • warnup:warmup是针对学习率learning rate优化的一种策略,主要过程是,在预热期间,学习率从0线性(也可非线性)增加到优化器中的初始预设lr,之后使其学习率从优化器中的初始lr线性降低到0
    在这里插入图片描述
界面介绍

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如何完成自己的DataSet

因为自己练出的Lora实在太丑,愤而不写了。不如用别人的

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值