最近在使用腾讯云推出的高性能应用服务 HAI 体验 AI 作画,HAI 预置了 Stable Diffusion 等主流 AI 作画模型及常用插件,提供 GUI 图形化界面即开即用,大幅降低上手门槛。HAI 提供了两种算力方案,基础型算力提供 16G 的显存,0.88/每小时的价格,拿来炼丹性价比还是很高的。感兴趣的小伙伴可以参照 如何利用 HAI 轻松拿捏 AI 作画 进行体验。
显存 | 算力 | CPU&内存 | 费用 | |
---|---|---|---|---|
基础型 | 16GB+ | 8+TFlops SP | 8 核 32G | 0.88/每小时 |
进阶型 | 32GB+ | 15+TFlops SP | 8~10 核 40G | 2.41/每小时 |
在使用 HAI 提供的 Stable Diffusion WebUI 应用时,遇到了出图缓慢,显存爆掉的问题,当然这是 Stable Diffusion 的原生问题,与 HAI 无关。但是 HAI 是 按使用时长计费
的,一想到白花花的银子就浪费在等待出图的时间上,就心痛难忍。于是开始寻找能加速出图的方法,这就是今天的主角:LCM-LoRA模型
。使用 LCM-LoRA 体验极速出图,让你的 HAI 更具性价比!
一、LCM 介绍
LCM 的全称是 Latent Consistency Models(潜在一致性模型),由清华大学交叉信息研究院的研究者们构建。在这个模型发布之前,Stable Diffusion 等潜在扩散模型(LDM)由于迭代采样过程计算量大,生成速度非常缓慢。通过一些创新性的方法,LCM 只用少数的几步推理就能生成高分辨率图像。据统计,LCM 能将主流文生图模型的效率提高 5-10 倍,所以能呈现出实时的效果。在此基础上,研究团队进一步提出 L