“DataWhale X 魔搭AI夏令营”Task3:进阶上分-实战优化

工具初探一ComfyUI应用场景探索

  • 20分钟速通安装ComfyUI

  • 下载脚本代码文件

  • 下载安装ComfyUI的执行文件task1中微调完成Lora文件 

  • 进入ComfyUI的安装文件

  • 进入预览界面

当执行到最后一个节点的内容输出了一个访问的链接的时候,复制链接到浏览器中访问

PS:如果链接访问白屏,或者报错,就等一会再访问重试,程序可能没有正常启动完毕

  • 浅尝ComfyUI工作流

  • 不带Lora的工作流样例

Step1:下载工作流脚

失败:没加载过来工作流脚本

   

  • Task2中的的微调代码

  • import os
    cmd = """
    python DiffSynth-Studio/examples/train/kolors/train_kolors_lora.py \ # 选择使用可图的Lora训练脚本DiffSynth-Studio/examples/train/kolors/train_kolors_lora.py
      --pretrained_unet_path models/kolors/Kolors/unet/diffusion_pytorch_model.safetensors \ # 选择unet模型
      --pretrained_text_encoder_path models/kolors/Kolors/text_encoder \ # 选择text_encoder
      --pretrained_fp16_vae_path models/sdxl-vae-fp16-fix/diffusion_pytorch_model.safetensors \ # 选择vae模型
      --lora_rank 16 \ # lora_rank 16 表示在权衡模型表达能力和训练效率时,选择了使用 16 作为秩,适合在不显著降低模型性能的前提下,通过 LoRA 减少计算和内存的需求
      --lora_alpha 4.0 \ # 设置 LoRA 的 alpha 值,影响调整的强度
      --dataset_path data/lora_dataset_processed \ # 指定数据集路径,用于训练模型
      --output_path ./models \ # 指定输出路径,用于保存模型
      --max_epochs 1 \ # 设置最大训练轮数为 1
      --center_crop \ # 启用中心裁剪,这通常用于图像预处理
      --use_gradient_checkpointing \ # 启用梯度检查点技术,以节省内存
      --precision "16-mixed" # 指定训练时的精度为混合 16 位精度(half precision),这可以加速训练并减少显存使用
    """.strip()
    os.system(cmd) # 执行可图Lora训练    

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值