lora 继续训练

lora 继续训练

一般正常lora训练完模型后我们只保存其lora参数,然后与base模型进行合并。记录一下训练完保存lora后,继续再对lora训练的步骤。

base_model = AutoModelForCausalLM.from_pretrained(base_model_id)
base_model.enable_input_require_grads()
model = PeftModel.from_pretrained(base_model, peft_adapter_path)
for name, param in model.named_parameters():
    if 'lora' in name or 'Lora' in name:
        param.requires_grad = True

其中peft_adapter_path即为之前保存的lora模型路径。

参考:
1、https://github.com/huggingface/peft/issues/184
2、参考2

Stable Diffusion LoRA是一种用于微调稳定扩散模型的技术,它允许用户通过较少的数据量对预训练的图像生成模型进行个性化定制。LoRA全称为Low-Rank Adaptation,即低秩适应技术,其核心思想是在大规模预训练模型的基础上,仅调整或添加少量参数来进行特定任务的学习。 ### 训练步骤概述 1. **准备数据集** 收集并整理好你要用于微调的主题图片集合。理想情况下,应该包括足够多样化的样本,并且每张图都应附带适当的描述文本作为条件输入。 2. **安装依赖环境** - 确保已经安装了Python以及PyTorch等必要的库文件。 - 根据官方文档指导完成`diffusers`、`transformers`等相关软件包的安装配置工作。 3. **加载基础模型及Tokenizer** 利用HuggingFace提供的API轻松获取指定版本的基础权重文件与分词工具。 4. **设置LoRA模块** 对于想要优化的部分网络层引入额外的小规模矩阵(Rank),这部分新增加的内容就构成了所谓的“adapter”。需要注意的是,在实际操作过程中只需更新这些新加入部分对应的梯度信息即可。 5. **定义损失函数和优化算法** 选择合适的Loss Function如交叉熵误差,并搭配AdamW之类的现代优化器来加速收敛过程。 6. **启动训练循环** 开始迭代整个流程直至满足预定停止准则为止;期间可以定期保存checkpoint以便后续恢复继续学习或者直接部署应用。 7. **评估性能指标** 使用测试集中未见过的真实样本来衡量改进效果如何。如果结果满意,则可以直接导出finetuned model供生产环境中使用啦! 8. **发布共享成果** 最终可以把精心打磨过的自定义风格转换器分享给更多人体验哦~比如上传至Model Hub平台让全球开发者都能受益于此创新之作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值