Diffusers代码学习:LCM

LCM通过直接预测潜在空间而非像素空间中的反向扩散过程,实现快速高质量图像生成。换言之,与迭代地从有噪声图像中去除噪声的典型扩散模型相比较,LCM试图从有噪声的图像中预测无噪声的图像。通过避免迭代采样过程,LCM能够在2-4个步骤而不是20-30个步骤中生成高质量图像。

LCM是从预训练的模型中提取出来的,需要大约32小时的A100计算。为了加快速度,LCM-LoRA训练一个LoRA适配器,与完整模型相比,该适配器需要训练的参数要少得多。LCM-LoRA一旦经过训练,就可以插入到扩散模型中。

下面演示如何使用LCM和LCM-LoRA对任务进行快速推理,以及如何将它们与ControlNet或T2I适配器等其他适配器一起使用。

# 以下代码为程序运行进行设置

import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"
rom diffusers import StableDiffusionXLPipeline, UNet2DConditionModel, LCMScheduler
import torch

# 以下代码引入LCM SDXL模型

unet = UNet2DConditionModel.from_pretrained(
"latent-consistency/lcm-sdxl",
torch_dtype=torch.float16,
variant="fp16",
)
pipe = StableDiffusionXLPipeline.from_pretrained(
"stabilityai/stable-diffusion-xl-base-1.0", unet=unet, torch_dtype=torch.float16, variant="fp16",
).to("cuda")
pipe.scheduler = LCMScheduler.from_config(pipe.scheduler.config)

prompt = "Self-portrait oil painting, a beautiful cyborg with golden hair, 8k"
generator = torch.manual_seed(0)
image = pipe(
prompt=prompt, num_inference_steps=4, generator=generator, guidance_scale=8.0
).images[0]

image.show()

以下为输出结果

图片

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

duhaining1976

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值