LCM通过直接预测潜在空间而非像素空间中的反向扩散过程,实现快速高质量图像生成。换言之,与迭代地从有噪声图像中去除噪声的典型扩散模型相比较,LCM试图从有噪声的图像中预测无噪声的图像。通过避免迭代采样过程,LCM能够在2-4个步骤而不是20-30个步骤中生成高质量图像。
LCM是从预训练的模型中提取出来的,需要大约32小时的A100计算。为了加快速度,LCM-LoRA训练一个LoRA适配器,与完整模型相比,该适配器需要训练的参数要少得多。LCM-LoRA一旦经过训练,就可以插入到扩散模型中。
下面演示如何使用LCM和LCM-LoRA对任务进行快速推理,以及如何将它们与ControlNet或T2I适配器等其他适配器一起使用。
# 以下代码为程序运行进行设置
import os os.environ["HF_ENDPOINT"] = "https://hf-mirror.com" rom diffusers import StableDiffusionXLPipeline, UNet2DConditionModel, LCMScheduler import torch
# 以下代码引入LCM SDXL模型
unet = UNet2DConditionModel.from_pretrained(
"latent-consistency/lcm-sdxl",
torch_dtype=torch.float16,
variant="fp16",
)
pipe = StableDiffusionXLPipeline.from_pretrained(
"stabilityai/stable-diffusion-xl-base-1.0", unet=unet, torch_dtype=torch.float16, variant="fp16",
).to("cuda")
pipe.scheduler = LCMScheduler.from_config(pipe.scheduler.config)
prompt = "Self-portrait oil painting, a beautiful cyborg with golden hair, 8k"
generator = torch.manual_seed(0)
image = pipe(
prompt=prompt, num_inference_steps=4, generator=generator, guidance_scale=8.0
).images[0]
image.show()
以下为输出结果