LoRA微调可图kolos模型

部署链接LoRA微调Datawhale (linklearner.com)

LoRA微调

结果链接:魔搭社区汇聚各领域最先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务。icon-default.png?t=N7T8https://www.modelscope.cn/models/quedao/quedao-LoRA

import os
cmd = """
python DiffSynth-Studio/examples/train/kolors/train_kolors_lora.py \ # 选择使用可图的Lora训练脚本DiffSynth-Studio/examples/train/kolors/train_kolors_lora.py
  --pretrained_unet_path models/kolors/Kolors/unet/diffusion_pytorch_model.safetensors \ # 选择unet模型
  --pretrained_text_encoder_path models/kolors/Kolors/text_encoder \ # 选择text_encoder
  --pretrained_fp16_vae_path models/sdxl-vae-fp16-fix/diffusion_pytorch_model.safetensors \ # 选择vae模型
  --lora_rank 8 \ # lora_rank 16 表示在权衡模型表达能力和训练效率时,选择了使用 16 作为秩,适合在不显著降低模型性能的前提下,通过 LoRA 减少计算和内存的需求
  --lora_alpha 8 \ # 设置 LoRA 的 alpha 值,影响调整的强度
  --dataset_path data/lora_dataset_processed \ # 指定数据集路径,用于训练模型
  --output_path ./models \ # 指定输出路径,用于保存模型
  --max_epochs 5 \ # 设置最大训练轮数为 1
  --center_crop \ # 启用中心裁剪,这通常用于图像预处理
  --use_gradient_checkpointing \ # 启用梯度检查点技术,以节省内存
  --precision "16-mixed" # 指定训练时的精度为混合 16 位精度(half precision),这可以加速训练并减少显存使用
""".strip()
os.system(cmd) # 执行可图Lora训练    

pretrained_unet_path

models/kolors/Kolors/unet/diffusion_pytorch_model.safetensors

指定预训练UNet模型的路径

pretrained_text_encoder_path

models/kolors/Kolors/text_encoder

指定预训练文本编码器的路径

pretrained_fp16_vae_path

models/sdxl-vae-fp16-fix/diffusion_pytorch_model.safetensors

指定预训练VAE模型的路径

lora_rank

16

设置LoRA的秩(rank),影响模型的复杂度和性能

lora_alpha

4

设置LoRA的alpha值,控制微调的强度

dataset_path

data/lora_dataset_processed

指定用于训练的数据集路径

output_path

./models

指定训练完成后保存模型的路径

max_epochs

1

设置最大训练轮数为1

center_crop

启用中心裁剪,用于图像预处理

use_gradient_checkpointing

启用梯度检查点,节省显存

precision

"16-mixed"

设置训练时的精度为混合16位精度(half precision)

调整后提示词

图片 1: 一位小女孩坐在沙发上,感到无聊

  • 二次元,日系,宁静和谐的氛围,发的小女孩,坐在舒适的灰色沙发上,显得有些无聊,双手托着下巴,全身,穿着白色连衣裙

图片 2: 小女孩来到演唱会现场,被偶像姐姐吸引

  • 二次元,日系,充满活力和色彩的演唱会现场,同一个小女孩站在人群中,目光紧盯着舞台上的偶像,上半身特写,身穿白色T恤,手持荧光棒,表情兴奋。

图片 3: 进入梦乡,梦到自己站在路旁

  • 二次元,梦幻风格,同一个小女孩站在一条空旷而神秘的小路上,四周是模糊不清的景色,上半身特写,闭着眼睛,脸上带着微笑,穿着睡衣,背景中有一轮弯月。

图片 4: 演唱会结束后,成为偶像的梦想在少女心中发芽

  • 二次元,日系,温馨的卧室,同一个小女孩躺在床上,手捧着演唱会的海报,眼神中充满了梦想和希望,上半身特写,穿着睡衣,背景是夜晚的城市灯光。

图片 5: 为了成为偶像,少女开始日复一日的歌唱练习

  • 二次元,日系,充满决心的练习室,同一个小女孩站在麦克风前认真练习唱歌,全身特写,穿着白色连衣裙,背景是一间充满音乐设备的房间。

图片 6: 春去秋来,少女已然成长,成为自己心中憧憬的样子

  • 二次元,日系,秋季的公园,同一个小女孩站在枫叶树下,回望过去的岁月,全身特写,穿着时尚的秋季服装,手中拿着一片红叶,脸上洋溢着自信的笑容。

图片 7: 终于,少女迎来了第一次登台演出,换上了黑色礼服,内心忐忑

  • 二次元,日系,舞台后台,同一个小女孩站在镜子前整理黑色晚礼服,上半身特写,脸上流露出紧张又期待的表情,背景中有其他忙碌的工作人员。

图片 8: 在聚光灯的映衬下,少女一展歌喉,闪闪发光的梦想成为现实

  • 二次元,日系,明亮的聚光灯下的舞台,同一个小女孩站在舞台上演唱,全身特写,穿着黑色的演出服,周围是热情的观众,背景中可以看到闪烁的灯光和欢呼的人群。

  • 10
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LoRA(Large-scale Reinforcement Learning from Image Pixels with Latent Actions)是一种用于微调大型模型的方法,它结合了强化学习和图像像素级别的训练。LoRA的目标是通过观察环境中的图像像素,并根据这些像素采取相应的行动来学习一个能够解决复杂任务的模型。 具体来说,LoRA使用了一个基于像素的强化学习框架,其中模型通过观察环境中的图像像素来学习如何采取最佳行动。这种方法的一个关键特点是,模型不需要任何先验知识或手工设计的特征,而是直接从原始像素数据中学习。 LoRA的训练过程包括两个阶段:预训练和微调。在预训练阶段,使用自编码器来学习图像的表示。自编码器是一种无监督学习方法,它通过将输入图像压缩成低维编码,然后再将编码解压缩为重构图像。通过这种方式,自编码器可以学习到图像的有用特征。 在微调阶段,使用强化学习算法(如Proximal Policy Optimization)来优化模型的策略。模型通过观察环境中的图像像素,并根据当前的状态选择最佳的行动。通过与环境进行交互并根据奖励信号进行反馈,模型逐渐优化其策略,以实现更好的性能。 LoRA的优势在于它能够处理高维度的原始输入数据,并且不需要手工设计的特征。通过使用像素级别的训练,LoRA可以学习到更丰富和复杂的特征表示,从而提高模型的性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值