【腾讯云HAI域探秘】使用LCM-LORA助力炼丹师极速出丹

最近在使用腾讯云推出的高性能应用服务 HAI 体验 AI 作画,HAI 预置了 Stable Diffusion 等主流 AI 作画模型及常用插件,提供 GUI 图形化界面即开即用,大幅降低上手门槛。HAI 提供了两种算力方案,基础型算力提供 16G 的显存,0.88/每小时的价格,拿来炼丹性价比还是很高的。感兴趣的小伙伴可以参照 如何利用 HAI 轻松拿捏 AI 作画 进行体验。

显存算力CPU&内存费用
基础型16GB+8+TFlops SP8 核 32G0.88/每小时
进阶型32GB+15+TFlops SP8~10 核 40G2.41/每小时

在使用 HAI 提供的 Stable Diffusion WebUI 应用时,遇到了出图缓慢,显存爆掉的问题,当然这是 Stable Diffusion 的原生问题,与 HAI 无关。但是 HAI 是 按使用时长计费 的,一想到白花花的银子就浪费在等待出图的时间上,就心痛难忍。于是开始寻找能加速出图的方法,这就是今天的主角:LCM-LoRA模型。使用 LCM-LoRA 体验极速出图,让你的 HAI 更具性价比!

一、LCM 介绍

LCM 的全称是 Latent Consistency Models(潜在一致性模型),由清华大学交叉信息研究院的研究者们构建。在这个模型发布之前,Stable Diffusion 等潜在扩散模型(LDM)由于迭代采样过程计算量大,生成速度非常缓慢。通过一些创新性的方法,LCM 只用少数的几步推理就能生成高分辨率图像。据统计,LCM 能将主流文生图模型的效率提高 5-10 倍,所以能呈现出实时的效果。在此基础上,研究团队进一步提出 LCM-LoRA,可以将 LCM 的快速采样能力在未经任何额外训练的情况下迁移到其他 LoRA 模型上,为开源社区已经存在的大量不同画风的模型提供了一个直接而有效的解决方案。

  • 论文链接:https://arxiv.org/pdf/2310.04378.pdf
  • 项目地址:https://github.com/luosiallen/latent-consistency-model

二、如何在HAI中使用LCM-LoRA

LCM-LoRA 模型分为两个版本:LCM-SD1.5-LoRA 和 LCM-SDXL-LoRA。分别对应 SD1.5 基础模型和 SDXL 基础模型,使用时根据所用的基础大模型版本选择相应的LoRA模型。

2.1 下载LCM-LoRA模型文件

  • 方法一:LCM团队已经将LCM模型及LoRA模型上传到始智AI(wisemodel) ,以方便国内用户下载,下载地址:https://www.wisemodel.cn/organization/Latent-Consistency-Model。

    image-20231215185218497

    模型文件下载成功后,注意将默认文件名修改一下,便于后续的使用,之后通过JuyperLab将模型文件上传至 HAI 的 /root/stable-diffusion-webui/models/Lora/ 目录下即可。

  • 方法二:直接在 HAI提供的JuyperLab 命令行终端执行以下命令从HF国内镜像下载

    # 下载LCM-SD1.5-LoRA
    wget -O /root/stable-diffusion-webui/models/Lora/lcm-lora-sdv1-5.safetensors https://hf-mirror.com/latent-consistency/lcm-lora-sdv1-5/resolve/main/pytorch_lora_weights.safetensors
    # 下载LCM-SDXL-LoRA
    wget -O /root/stable-diffusion-webui/models/Lora/lcm-lora-sdxl.safetensors https://hf-mirror.com/latent-consistency/lcm-lora-sdxl/resolve/main/pytorch_lora_weights.safetensors
    

模型下载成功后,在SD-WebUI的LoRA页签或者在/root/stable-diffusion-webui/models/Lora/能看到模型文件即可。

image-20231215195635116

image-20231215195439442

2.2 使用LCM-LoRA模型

LCM-LoRA模型的使用与其他LoRA模型略有差异。主要关注迭代步数提示词相关性两个配置即可,如果使用SDXL基础模型,还需要额外关注一下采样方法。接下来就分别说明一下SD1.5 基础模型和SDXL 基础模型如何配合LCM-LoRA模型提速。

  • SD1.5 基础模型使用 LCM-LoRA

    参数项参数值参数说明
    正向提示词结尾添加:<lora:lcm-lora-sdv1-5:1>这里与使用普通LoRA模型是一样的
    迭代步数4~8传统的迭代步数一般是 20 以上,使用 LCM-LoRA 模型的迭代步数设置在 4~8 即可,太大了对画质的改变其实并不大,这个也是缩减生成时间的最主要因素
    提示词相关性1或者2传统的提示性相关性一般都在 7 以上,使用 LCM-LoRA 模型的提示词相关性一般设置为 1 或者 2;设置为1代表只包含正面提示词,不包含负面提示词;设置为2代表既包含正面提示词,又包含负面提示词;
    其余参数与正常情况下保持一致即可
  • SDXL 基础模型使用 LCM-LoRA

    参数项参数值参数说明
    正向提示词结尾添加:<lora:lcm-lora-sdxl:1>这里与使用普通LoRA模型是一样的
    采样方法LCM或者Euler a这里推荐使用LCM采样方法,作品画质相较于Euler a会更好
    迭代步数4~8传统的迭代步数一般是 20 以上,使用 LCM-LoRA 模型的迭代步数设置在 4~8 即可,太大了对画质的改变其实并不大,这个也是缩减生成时间的最主要因素
    提示词相关性1或者2传统的提示性相关性一般都在 7 以上,使用 LCM-LoRA 模型的提示词相关性一般设置为 1 或者 2;设置为1代表只包含正面提示词,不包含负面提示词;设置为2代表既包含正面提示词,又包含负面提示词;
    其余参数与正常情况下保持一致即可

    注意:Stable Diffusion WebUI目前并没有预置LCM采样方法,需要通过安装AnimateDiff插件来获得。在Stable Diffusion的“扩展(extensions)”菜单,选择“可用(available)”,点击“加载自(load from)”,搜索“animatediff“,点击“安装(Install)”。

效果对比

  • 正常情况下出图:耗时1分7秒,显存使用率96.7%

    image-20231215112813105

  • 使用 LCM-LoRA 模型出图:耗时15秒,速度快了接近5倍!显存占用率88.7%,降低了8%

    image-20231215113042403

  • 图片质量对比:第一张是正常出的图,第二张是使用LCM-LoRA 模型后的出的图
    image_no_lcm

    image_with_lcm

总结

可以看到,在使用了LCM-LoRA模型后,使用SDXL模型生成图片的速度提升了近5倍,显存使用率也有一定的下降,不过图片质量也略微有些下降,但也勉强够用。以后再也不担心HAI的账单超标了。
最后也是希望HAI的Stable Diffusion应用能够预置更多的常用插件和一些常用基础模型,譬如中文插件、AnimateDiff插件等,同时也希望可以提供更为方便快捷的模型下载途径。

  • 22
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 24
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 24
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值