High-Resolution Image Synthesis with Latent Diffusion Models 论文重点

High-Resolution Image Synthesis with Latent Diffusion Models


Github : https://github.com/CompVis/latent-diffusion

Abstract

通过将图像生成过程分解为去噪编码器的迭代应用,扩散模型(DMs)在图像数据和其他数据上实现了最先进的合成结果。此外,它们的表述还提供了一种引导机制来控制图像生成过程,而无需再训练。然而,由于这些模型通常直接在像素空间中操作,优化功能强大的dm通常会消耗数百个GPU天,而且由于顺序计算,推理是昂贵的(耗时)。为了在有限的计算资源上进行DM训练,同时保持其质量和灵活性,我们将其应用于强大的预训练预编码的潜在空间。与以前的工作相比,在这种表示上训练扩散模型首次允许在复杂性减少和细节保留之间达到一个接近最优点,极大地提高了视觉保真度。通过在模型架构中引入交叉注意层,我们将扩散模型转变为强大而灵活的生成器,用于文本或边界框等一般条件反射输入,并以卷积方式实现高分辨率合成。我们的潜在扩散模型(ldm)在图像嵌入和类条件图像合成方面取得了最新的分数,在各种任务上具有极具竞争力的性能,包括文本到图像合成、无条件图像生成和超分辨率,同时与基于单像素的DMs相比显著减少了计算需求。

1. Introduction

  • 自回归(AR)和tranformer的数十亿个参数[66,67]。参数量大 GAN [3,27,40]
  • 它们的对抗性学习过程不容易扩展到建模复杂的多模态,仅限于变异性相对有限的数据分布。
  • 扩散模型[82],这是建立在一个去噪自动编码器的层次,已经表明令人不可思议的成果。 作为基于似然的模型,它们不像
    GAN那样表现出模式崩溃和训练不稳定性,并且通过大量利用参数共享,它们可以模拟自然图像的高度复杂的分布,而不像
    AR模型那样涉及数十亿个参数[67]
不足之处:
  • 此前的高分辨率图像合成DMs属于基于似然的模型,其模式行为使其易于在建模数据的不可感知细节上花费过多的容量(以及计算资源)[16,73]。尽管重加权变分目标[30]旨在通过对初始去噪步骤采样不足来解决这一问题,DMs仍然需要大量的计算,因为训练和评估这样的模型需要在RGB图像的高维空间中重复函数评估(和梯度计算)。
  • 例如,训练最强大的dm通常需要数百个GPU/天(例如,[15]中的150 - V1000
    /100天),并且在输入空间渲染的噪声版本上重复计算也非常昂贵。在单个A100 GPU上生成50k样本大约需要5天。评估一个已经准备好的训练模型在时间和内存上也是昂贵的,因为相同的模型架构必须按顺序运行大量的步骤(例如[15]中的25-1000步)
提出问题:
  • 为了提高这种强大的模型的可访问性,同时降低其巨大的资源消耗,需要一种降低训练和采样计算复杂度的方法。因此,减少 DM
    的计算需求而不影响其性能是提高其可访问性的关键。
解决方法:Departure to Latent Space(脱离并去往潜在空间)
  • 与任何基于似然的模型一样,学习大致可以分为两个阶段:
    第一阶段是感知压缩阶段,它去除了高频细节,但仍然学习到很少的语义变化。在第二阶段,实际的生成模型学习数据的语义和概念组成(语义压缩)。因此,我们的目标是首先找到一个感知上等同,但计算上更合适的空间,在这里我们将为高分辨率图像合成训练扩散模型。
方法的优点:
  • 只需要训练通用自动编码阶段一次,因此可以重用它进行多个 DM 训练或探索可能完全不同的任务[81]。这使得对各种图像到图像和文本到图像任务的大量扩散模型的有效探索成为可能。对于后者,我们设计了一个架构,将transformer连接到 DM 的 UNet 主干[71] ,并支持任意类型的基于条件的调节机制。

在这里插入图片描述
在这里插入图片描述

Contributions:
  • 与纯粹基于transformer的方法[23,66]相比,我们的方法可以更优雅地扩展到更高维数据,因此可以(a)在压缩级别上工作,其提供比以前的工作更有效的应用于高分别生成方面。
  • 我们在多任务(无条件图像合成、修补、随机超分辨率)和数据集上获得了具有竞争力的性能,同时显著降低了计算成本。与基于像素的扩散方法相比,我们也显著降低了推理成本。
  • 我们的结果表明,与之前的工作93相比,我们的方法不需要对重构和生成能力进行精确的加权。这确保了非常忠实的重建,需要非常少的潜空间正则化。
  • 我们发现,对于超分辨率、修补和语义合成等高密度条件任务,我们的模型可以以卷积的方式应用,渲染出大的、一致的
    1024*1024像素的高分图像。
  • 此外,我们设计了一个基于交叉注意的通用条件反射机制,使得多模态训练成为可能。我们使用它来训练类条件模型、文本到图像模型和布局到图像模型。

Related Work

  • Generative Models for Image Synthesis
  • Diffusion Probabilistic Models (DM)
  • Two-Stage Image Synthesis
Generative Models for Image Synthesis
Diffusion Probabilistic Models (DM)

DM在密度估计[45]和样品质量[15]方面取得了最先进的结果。这些模型的生成能力源于对类图像数据的归纳双酶的自然拟合,当其底层神经脊骨作为UNet实现时[15,30,71,85]。最好的综合质量通常是在重新加权的客观[30]用于训练时达到的。在这种情况下,DM对应于一个有损压缩器,并允许用图像质量交换压缩能力。然而,在像素空间中评估和优化这些模型的缺点是推理速度低,训练成本很高。虽然前者可以通过高级采样策略[47,75,84]和分层方法[31,93]部分解决,但高分辨率图像数据的训练总是需要计算昂贵的梯度。我们用我们提出的ldm解决了这两个缺点,它们工作在一个较低维度的压缩空间上。这使得训练计算成本更低,并加快了推理速度,几乎不降低合成质量。

Two-Stage Image Synthesis

为了缓解单个生成方法的缺点,大量研究[11,23,67,70,101,103]通过两阶段方法将不同方法的优点结合成更有效的生成模型。

Method

  • Perceptual Image Compression
  • Latent Diffusion Models
  • Conditioning Mechanisms
Perceptual Image Compression

我们通过引入压缩和生成学习阶段的显式分离来规避这一缺陷(见图2)。为了实现这一目标,我们使用了一个自编码模型,该模型学习的空间在感知上与图像空间等效,但显著降低了计算复杂度
这种方法有几个优点:

  • 通过离开高维图像空间,我们得到的dm计算效率更高,因为采样是在低维空间上进行的。

  • 我们利用了继承自其UNet体系结构[71]的dm的归纳偏差,这使得它们对具有空间结构的数据特别有效,因此减轻了以前方法[23,66]所要求的压缩级别的需求。

  • 最后,我们获得了通用压缩模型,其潜在空间可用于训练多个生成模型,也可用于其他下游应用,如单幅图像clip引导的合成[25]

我们的感知压缩模型基于以前的工作[23] ,由一个自动编码器组合训练的感知损失[106]和基于补丁的[33]对手目标[20,23,103]。这保证了重建被限制在图像流形执行局部真实感和避免模糊引入仅仅依靠像素空间损失,如 L2或 L1。
在这里插入图片描述
为了避免任意高方差的潜在空间,我们用两种不同的正则化进行实验。第一个变种,KL-reg。,对习得潜伏的标准正常值施加轻微的kl -惩罚,类似于VAE[46,69],而VQ-reg。在解码器中使用矢量量化层[96]。这个模型可以解释为一个VQGAN[23],但量化层被解码器吸收。因为我们的后续DM设计用于学习到的潜空间z = E(x)的二维结构,所以我们可以使用相对温和的压缩率并实现非常好的重构。这与之前的工作[23,66]形成了对比,之前的工作依赖于学习到的空间z的任意1D顺序来对其分布进行自回归建模,从而忽略了z的大部分固有结构。因此,我们的压缩模型更好地保留了x的细节。

Latent Diffusion Models

在这里插入图片描述
潜在表征的生成建模通过我们训练好的由 E 和 D 组成的感知压缩模型,我们现在可以进入一个有效的、低维的潜在空间,在这个空间中,高频率的、不可感知的细节被抽象出来。与高维像素空间相比,该空间更适合基于似然的生成模型,因为它们现在可以(i)关注数据的重要的语义位,并且(ii)在较低维度的计算效率更高的空间中进行训练。

在这里插入图片描述
在这里插入图片描述

Experiments

implementation Details

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Conditional Latent Diffusion

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Super-Resolution with Latent Diffusion

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Limitations & Societal Impact

局限性:
虽然与基于像素的方法相比,ldm显著减少了计算需求,但其顺序采样过程仍比GANs慢。此外,当需要高精度时,使用ldm是有问题的:尽管在我们的f = 4自编码模型中,图像质量的损失非常小(见图1),但它们的重建能力可能成为在像素空间中要求细粒度精度的任务的瓶颈。我们的超分辨率模型在这方面已经有一定的局限性

Conclusion

提出了潜在扩散模型,这是一种简单有效的方法,可以显著提高去噪扩散模型的训练效率和采样效率,而不降低其质量。基于这一点和我们的交叉注意调节机制,的实验在没有任务特定架构的条件图像合成任务中,与最先进的方法相比,可以证明取得了良好的结果。

  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值