浅析扩散模型与图像生成【应用篇】(五)——SDEdit

5. SDEdit: Guided Image Synthesis and Editing With Stochastic Differential Equations

  该文提出一种基于SDE扩散模型的引导图像生成和编辑方法。通过使用者在原图上给出一些引导,比如在图像上涂鸦或者增加一个图块,甚至可以不给定原图,直接纯手工绘制一个涂鸦作为输入,模型就能够根据输入的带有引导信息的图像生成对应的结果,如下图所示。
在这里插入图片描述
  生成的过程基本延续了SDE的方法,作者在正文中以VE-SDE为例介绍了扩散和采样的过程,在附录中给出了VP-SDE的介绍,二者本质上是一致的。首先,SDEdit对输入的图像 x ( g ) x^{(g)} x(g)按照扩散的过程逐步添加噪声,得到干扰后的图像 x ( g ) ( t 0 ) x^{(g)}(t_0) x(g)(t0),然后再对 x ( g ) ( t 0 ) x^{(g)}(t_0) x(g)(t0)按照逆SDE的过程进行逐步的去噪采样,最终得到生成结果 x ( 0 ) x(0) x(0)。过程描述和算法流程如下图所示
在这里插入图片描述
在这里插入图片描述

  在SDE中,我们通常取 [ 0 , 1 ] [0,1] [0,1]作为连续变量 t t t的取值范围,扩散过程中 t : 0 → 1 t:0\rightarrow1 t:01,生成过程中:过程中 t : 1 → 0 t:1\rightarrow0 t:10。但在本文中,作者发现扩散过程的最终时间和生成过程的开始时间 t 0 t_0 t0不一定要取1,可以取 [ 0 , 1 ] [0,1] [0,1]中间的任意一个值。并且随着 t 0 t_0 t0增大,生成结果更加真实,但与输入引导的一致性变得更差;反之,随着 t 0 t_0 t0减小,生成结果更加接近输入的引导图像,但结果不够真实,如下图所示
在这里插入图片描述  经过实验,作者找到一个能够兼顾一致性和真实性的取值区间, t 0 ∈ [ 0.3 , 0.6 ] t_0\in [0.3,0.6] t0[0.3,0.6]。作者将SDEdit与其他基于GAN的图像生成和编辑算法进行了对比,结果表明SDEdit在多个数据集和多个指标上都超过了现有的最优的方法。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深视

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值