9、Cascaded Diffusion Models for High Fidelity Image Generation

简介

主页:https://cascaded-diffusion.github.io/

Cascaded Diffusion Models 能够在类条件ImageNet生成挑战上生成高保真图像,而无需任何辅助图像分类器的帮助来提高样本质量

实验表明,样本质量关键依赖于条件增强,即提出的将低分辨率条件输入数据增强到超分辨率模型的方法

条件增强防止了Cascaded Diffusion Models采样过程中的复合误差,帮助训练级联管道,在64×64分辨率下FID得分为1.48,在128×128分辨率下为3.52,在256×256分辨率下为4.88,优于BigGAN-deep,在256×256分辨率下分类准确率得分为63.02% (top-1)和84.06% (top-5),优于VQ-VAE-2。
在这里插入图片描述
贡献点:

  • Cascaded Diffusion Models(CDM)产生的高保真样本在FID评分和分类准确性评分方面优于BigGAN-deep和VQ-VAE-2,后者的差距很大。使用纯生成模型来实现这些结果,而不与任何分类器结合。
  • 为超分辨率模型引入了条件增强,并发现它对实现高样本保真度至关重要。对增强策略进行了深入的探索,发现Gaussian augmentation 是低分辨率上采样的关键因素,而Gaussian blurring 是高分辨率上采样的关键因素。

实现流程

在条件生成设置中,数据 x 0 x_0 x0 具有关联的条件信号 c

例如在类条件生成的情况下为标签,或在超分辨率的情况下为低分辨率图像

唯一需要对扩散模型做的修改是将 c 作为反向过程的输入:
在这里插入图片描述
与训练最高分辨率的标准模型相比,Cascaded Diffusion Models的一个主要好处是,大部分建模能力可以用于低分辨率,这在经验上对样本质量是最重要的,而且低分辨率的训练和采样往往是计算效率最高的

Cascaded Diffusion Models允许独立地训练各个模型,并且可以在每个特定分辨率上调整体系结构选择,以实现整个管道的最佳性能

conditioning augmentation

提高级Cascaded Diffusion Models样本质量的最有效技术是在每个超分辨率模型的低分辨率输入上使用数据增强来训练它

对于一些从低分辨率图像 z 到高分辨率图像 x 0 x_0 x0 的超分辨率模型 p θ ( x 0 ∣ z ) p_θ(x_0|z) pθ(x0z),条件增强是指对 z 应用某种形式的数据增强

在低分辨率下最有效的是添加高斯噪声(正向处理噪声),而对于高分辨率,随机对 z 应用高斯模糊

更实用的方法是训练超分辨率模型,并将其分摊到条件增强的强度上,并在训练后的超参数搜索中选择最佳强度,以获得最优的样本质量

Blurring Augmentation

条件增强的一个简单实例是通过模糊增强 z ,这对于上采样到分辨率为128×128和256×256的图像是最有效的,应用大小为 k 和 σ 的高斯滤波器来获得 z b z_b zb ,使用 k =(3,3) 的过滤器大小,并在训练过程中从固定范围随机采样 σ ,执行超参数搜索来找到 σ 的范围

训练过程,将这种模糊增强应用于50%的示例

验证过程,不对低分辨率输入施加增强
在这里插入图片描述

Truncated Conditioning Augmentation

截断条件反射增强(truncated conditioning augmentation),一种条件增强的形式,它需要对超分辨率模型的训练和架构进行简单的修改,但在级联的初始阶段不需要对低分辨率模型进行更改,这种方法在分辨率小于128×128时最有用,生成高分辨率样本 x 0 x_0 x0 需要首先从低分辨率模型 p θ ( z 0 ) p_θ(z_0) pθ(z0) 生成 z 0 z_0 z0,然后将结果输入超分辨率模型 p θ ( x 0 ∣ z 0 ) p_θ(x_0|z_0) pθ(x0z0)
在这里插入图片描述
为了简单起见,假设低分辨率和超分辨率模型都使用相同数量的时间步长T

截断条件增强是指截断低分辨率反向过程,使其停止在时间步长 s > 0,而不是0,也就是说,低分辨率反向过程生成图像不需要迭代到 x 0 x_0 x0,而是在给定的第 s 步停下,将 z s z_s zs 作为高分辨率模块的条件输入

在这里插入图片描述

低分辨率模型为: p θ ( z s ) = ∫ p θ ( z s : T ) d z s + 1 : T p_θ(z_s) = ∫ p_θ(z_{s:T} )d_{z_s+1:T} pθ(zs)=pθ(zs:T)dzs+1:T,超分辨率模型为: p θ ( x 0 ∣ z s ) = ∫ p ( x T ) ∏ t = 1 T p θ ( x t − 1 ∣ x t , z s ) d x 1 : T p_θ(x_0|z_s) = ∫ p(x_T ) ∏^T_{t=1} p_θ(x_{t−1}|x_t, z_s)d_{x_{1:T}} pθ(x0zs)=p(xT)t=1Tpθ(xt1xt,zs)dx1:T
在这里插入图片描述
截断低分辨率反向过程是数据增强的一种形式的原因是: p θ ( x 0 ∣ z s ) p_θ(x_0|z_s) pθ(x0zs) 的$训练过程涉及到噪声 z s   q ( z s ∣ z 0 ) z_s ~ q(z_s|z_0) zs q(zsz0) 的条件约束,该条件在缩放时, z 0 z_0 z0 是高斯噪声增强的

p s θ ( x 0 ) p_s^θ(x_0) psθ(x0) 视为具有扩散模型先验、扩散模型解码器和近似后验的VAE
在这里插入图片描述
此时 ELBO 为
在这里插入图片描述
其中, L T ( z 0 ) = D K L ( q ( z T ∣ z 0 ) ‖ p ( z T ) ) L_T (z_0) = D_{KL}(q(z_T |z_0) ‖ p(z_T )) LT(z0)=DKL(q(zTz0)p(zT))

t 的和 在 s 处被截断,解码器 p θ ( x 0 ∣ z s ) p_θ(x_0|z_s) pθ(x0zs) 是以 z s z_s zs 为条件的超分辨率模型

解码器本身有一个ELBO − l o g p θ ( x 0 ∣ z s ) ≤ L θ ( x 0 ∣ z s ) − log p_θ(x_0|z_s) ≤ L_θ(x_0|z_s) logpθ(x0zs)Lθ(x0zs)
在这里插入图片描述
结合低分辨率和超分辨率模型,ELBO为
在这里插入图片描述
优化式(3)分别训练低分辨率模型和高分辨率模型

对于固定值 s,低分辨率过程被训练到截断时间步长 s

超分辨率模型是在一个条件信号上训练的,使用在时间步长停止的低分辨率正向处理

由于追求样本质量作为主要目标,当训练具有可学习的反向过程方差的模型时,不直接使用这些ELBO表达式,而是在它们的混合损失对应上进行训练

希望搜索 s 的多个值,以选择最佳的样本质量。为了使这种搜索切实可行,在训练时通过在均匀随机 s 上摊销单个超分辨率模型来避免重新训练模型。因为每个可能的截断时间对应于一个不同的超分辨率任务, μ θ μ_θ μθ Σ θ Σ_θ Σθ 的超分辨率模型必须将 z s z_s zs 作为 s 的输入,这可以使用一个单独的网络来完成,并使用额外的时间嵌入 s 的输入。保持低分辨率模型训练不变,因为标准的扩散训练过程已经使用随机 s 进行训练。

Non-truncated Conditioning Augmentation

非截断条件反射增强(non-truncated conditioning augmentation),使用与截断条件反射增强相同的模型修改和训练过程,唯一的区别是采样时间,在非截断条件增强中,总是使用完整的、非截断的低分辨率反向过程对 z 0 z_0 z0 进行采样,而不是截断低分辨率的反向过程

非截断条件增强相对于截断条件增强的主要优势是在搜索阶段对 s 的实际操作。在截断增强的情况下,如果想在所有 s 上并行运行超分辨率模型,必须存储所有考虑 s 值的所有低分辨率样本 z s z_s zs。在非截断增强的情况下,只需要存储一次低分辨率的样本,因为采样 z s ′ ∼ q ( z s ∣ z 0 ) z'_s∼q(z_s|z_0) zsq(zsz0) 在计算上是便宜的。

实验证明,截断和非截断条件增强的样本质量指标是相似的
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

实验

在这里插入图片描述
在这里插入图片描述

conclusion & limitation

Cascaded Diffusion Models在与条件增强(将数据增强引入超分辨率模型的条件信息中的技术)配对时,能够在ImageNet类条件生成基准上优于最先进的生成模型。在FID评分和分类精度评分方面,模型优于BigGAN-deep和VQ-VAE-2。

条件增强有助于样本质量,因为它对抗了由于超分辨率模型中训练-测试不匹配而导致的级联管道中的复合错误,并且提出了在不同水平的条件增强上平摊训练和测试模型的实用方法。虽然可能会以恶意使用图像生成的形式产生负面影响,但工作有潜力改善有益的下游应用,如数据压缩,同时推进基本机器学习问题的知识状态。认为结果是对扩散模型原始形式的图像合成能力的概念研究,只需要很少的额外技术

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[1\]:在MySQL中,级联(cascaded)是指在进行数据操作时,对于外键关联的表,如果主表的数据发生了变化,那么从表的数据也会相应地发生变化。级联操作可以通过设置外键约束来实现。引用\[2\]:在插入数据时,如果满足级联操作的条件,MySQL会自动更新相关的从表数据。引用\[3\]:如果不满足级联操作的条件,MySQL不会自动更新从表数据。 问题: MySQL级联操作是什么意思? 回答: 在MySQL中,级联操作是指在进行数据操作时,对于外键关联的表,如果主表的数据发生了变化,那么从表的数据也会相应地发生变化。级联操作可以通过设置外键约束来实现。当满足级联操作的条件时,MySQL会自动更新相关的从表数据;如果不满足级联操作的条件,MySQL不会自动更新从表数据。 #### 引用[.reference_title] - *1* [Mysql后端开发(索引、优化、事务、引擎、锁)](https://blog.csdn.net/u014685437/article/details/129927180)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Mysql视图中检查选项CASCADED与LOCAL的区别](https://blog.csdn.net/oYinHeZhiGuang/article/details/124707332)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值