Text to image论文精读DR-GAN:分布正则化的生成对抗网络 Distribution-Regularization-for-Text-to-Image-Generation

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

where

θ

j

,

i

=

exp

(

S

j

,

i

)

k

=

1

T

exp

(

S

j

,

k

)

q_{j}=\sum_{i=1}^{T} \theta_{j, i} w_{i}^{\prime}, \quad \text { where } \theta_{j, i}=\frac{\exp \left(S_{j, i}{\prime}\right)}{\sum_{k=1}{T} \exp \left(S_{j, k}^{\prime}\right)}

qj​=∑i=1T​θj,i​wi′​, where θj,i​=∑k=1T​exp(Sj,k′​)exp(Sj,i′​)​,WAM依据此方法根据给定的单词特征W和图像特征h生成单词级上下文特征

Q

0

Q_0

Q0​,其中

Q

0

Q_0

Q0​是表达图像特征h的单词特征的加权组合。

Q

0

Q_0

Q0​可以有效丰富图像细节的语义。

  • Self Attention自注意力机制:使用的是空间自注意机制,分别表示词级上下文特征

Q

0

Q_0^‘

Q0‘​和中间图像特征

H

i

1

H_{i−1}

Hi−1​的关键信息和非关键信息。而用于计算自注意力机制特征

H

i

1

H_{i−1}

Hi−1​的空间注意掩码

M

a

s

k

i

H

Mask^H_i

MaskiH​为:

Mask

i

H

=

Sig

.

(

Conv

1

×

1

2

(

ReLU

(

Conv

3

×

3

1

(

H

i

1

)

)

)

)

\operatorname{Mask}_{i}^{H}=\operatorname{Sig} .\left(\operatorname{Conv}_{1 \times 1}^{2}\left(\operatorname{ReLU}\left(\operatorname{Conv}_{3 \times 3}^{1}\left(H_{i-1}\right)\right)\right)\right)

MaskiH​=Sig.(Conv1×12​(ReLU(Conv3×31​(Hi−1​)))),特征

Q

i

Q_i

Qi​的空间注意掩码

M

a

s

k

i

Q

Mask^Q_i

MaskiQ​定义为

Mask

i

Q

=

Sig

(

Conv

1

×

1

2

(

ReLU

(

Conv

3

×

3

1

(

Q

i

)

)

)

)

\operatorname{Mask}_{i}^{Q}=\operatorname{Sig} \cdot\left(\operatorname{Conv}_{1 \times 1}^{2}\left(\operatorname{ReLU}\left(\operatorname{Conv}_{3 \times 3}^{1}\left(Q_{i}\right)\right)\right)\right)

MaskiQ​=Sig⋅(Conv1×12​(ReLU(Conv3×31​(Qi​))))

  • RIRM实数图像重建模块:包含一个编码器和一个解码器。编码器以实像

I

i

I_i^*

Ii∗​作为输入,输出实像特征

H

i

H_i^*

Hi∗​。解码器取实像特征

H

i

H_i^*

Hi∗​,利用重构损失函数

R

I

R

M

(

I

i

)

I

i

1

\left|R I R M\left(I_{i}{*}\right)-I_{i}{*}\right|_{1}

∥RIRM(Ii∗​)−Ii∗​∥1​对实像进行重构,解码器和生成模块

G

0

G^0

G0组成了Siamese网络,可以为SDM提供高质量的真实图像特征。

  • Semantic Disentangling Loss 语义解缠损失:为了驱动SDM更好地区分

Q

i

Q_i

Qi​和

H

i

1

H_{i−1}

Hi−1​的关键信息和非关键信息。作者进一步设计了一个新的语义解缠损失(SDL),对于图像特征和上下文特征:

L

S

D

L

H

i

=

S

P

(

μ

(

H

i

)

μ

(

H

i

)

μ

(

H

i

)

μ

(

H

i

)

)

S

P

(

σ

(

H

i

)

σ

(

H

i

)

σ

(

H

i

)

σ

(

H

i

)

)

\begin{aligned} \mathcal{L}_{S D L}^{H_{i}}= & S P\left(\left|\mu\left(H_{i}{+}\right)-\mu\left(H_{i}{*}\right)\right|-\left|\mu\left(H_{i}{-}\right)-\mu\left(H_{i}{*}\right)\right|\right)+S P\left(\left|\sigma\left(H_{i}{+}\right)-\sigma\left(H_{i}{*}\right)\right|-\left|\sigma\left(H_{i}{-}\right)-\sigma\left(H_{i}{*}\right)\right|\right) \end{aligned}

LSDLHi​​=​SP(

​μ(Hi+​)−μ(Hi∗​)

​−

​μ(Hi−​)−μ(Hi∗​)

​)+SP(

​σ(Hi+​)−σ(Hi∗​)

​−

​σ(Hi−​)−σ(Hi∗​)

​)​

L

S

D

L

Q

i

=

S

P

(

μ

(

Q

i

)

μ

(

H

i

)

μ

(

Q

i

)

μ

(

H

i

)

)

S

P

(

σ

(

Q

i

)

σ

(

H

i

)

σ

(

Q

i

)

σ

(

H

i

)

)

\begin{aligned} \mathcal{L}_{S D L}^{Q_{i}}= & S P\left(\left|\mu\left(Q_{i}{+}\right)-\mu\left(H_{i}{*}\right)\right|-\left|\mu\left(Q_{i}{-}\right)-\mu\left(H_{i}{*}\right)\right|\right) +S P\left(\left|\sigma\left(Q_{i}{+}\right)-\sigma\left(H_{i}{*}\right)\right|-\left|\sigma\left(Q_{i}{-}\right)-\sigma\left(H_{i}{*}\right)\right|\right) \end{aligned}

LSDLQi​​=​SP(

​μ(Qi+​)−μ(Hi∗​)

​−

​μ(Qi−​)−μ(Hi∗​)

​)+SP(

​σ(Qi+​)−σ(Hi∗​)

​−

​σ(Qi−​)−σ(Hi∗​)

​)​
其中,u表示均值、

σ

\sigma

σ表示方差,SP (x) = ln(1 +

e

x

e^x

ex),最终的SDL损失如下:

L

S

D

L

i

=

λ

1

L

S

D

L

H

i

λ

2

L

S

D

L

Q

i

λ

3

R

I

R

M

(

I

i

)

I

i

1

\mathcal{L}_{S D L_{i}}=\lambda_{1} \mathcal{L}_{S D L}^{H_{i}}+\lambda_{2} \mathcal{L}_{S D L}^{Q_{i}}+\lambda_{3}\left|R I R M\left(I_{i}{*}\right)-I_{i}{*}\right|_{1}

LSDLi​​=λ1​LSDLHi​​+λ2​LSDLQi​​+λ3​∥RIRM(Ii∗​)−Ii∗​∥1​

下图展示了,在加入基于SDM驱动的关键信息选择策略,可以更好地过滤出

H

1

H_1

H1​和

Q

2

Q_2^`

Q2‘​上的非关键结构性信息,进而使得图像特征

H

2

H_2

H2​的结构和语义变得更加合理。因此,合成图像的结构也更合理:
在这里插入图片描述

3.3、分布归一化模块(DNM)

在鉴别器方面,复杂的图像分布使得鉴别器很难区分当前输入图像是从真实图像分布中采样的还是从生成的图像分布中采样的。并且生成器很难使生成的分布与真实图像分布保持一致,有必要降低分布的复杂性。而数据归一化机制可以降低数据的噪声和内部协变量移位,进一步提高模型的学习效率,是一种有效的去噪和降低复杂性的策略。

对于此,归一化模块使用变分自动编码器以帮助鉴别器更好地区分“真”图像和“假”图像。变分自动编码器(VAE)[24]作为一种生成模型,可以有效地去噪潜在分布,降低分布的复杂性。假设图像的潜在嵌入向量服从高斯分布N(µ,σ),然后将N(µ,σ)归一化为标准正态分布N(0,1)。基于VAE图像重建的优势,归一化后的嵌入向量可以保留关键语义视觉信息。DNM的结构如下所示:
在这里插入图片描述
其包含两个子模块:鉴别器Di和VAE模块Ai:

  • 鉴别器模块很常规,其由编码器

E

D

E^D

ED(·)和逻辑分类器ψ(·)组成。

E

D

E^D

ED(·)将图像x编码为嵌入向量v.将嵌入向量v与文本嵌入s结合,馈送给逻辑分类器ψ(·),用于识别x是真实图像还是生成图像。
图像中视觉信息的多样性、背景的杂乱性以及其他非关键视觉信息使得嵌入向量v的分布变得复杂,使得x的识别更加困难。

  • 因此采用VAE模块对嵌入向量V的潜在分布进行归一化和去噪。除了降低图像潜在分布的复杂性外,使用VAE还可以推动编码后的图像特征向量V来记录重要的图像语义。

DNM模块将V AE和鉴别器j相结合,可以有效地降低图像嵌入V构造的分布的复杂性,丰富图像嵌入V的高级语义信息,这种归一化的嵌入有助于鉴别器更好地区分“假”图像和“真”图像。因此,生成器也可以更好地将生成的分布与真实图像分布对齐。

整个DNM主要步骤如下:

  1. 给定图像x, x首先被馈送给编码器ED(·),ED(·)输出图像潜在嵌入v
  2. 逻辑分类器φ(·)给出v的均值和方差,并构建一个高斯分布:

N

(

μ

~

(

φ

(

v

)

)

,

σ

~

(

φ

(

v

)

)

)

N(\tilde{\mu}(\varphi(v)), \tilde{\sigma}(\varphi(v)))

N(μ​(φ(v)),σ(φ(v))),通过KL散度进一步将这个高斯分布归一化为

z

=

z

σ

~

(

φ

(

v

)

)

)

μ

~

(

φ

(

v

)

)

,

z

N

(

0

,

1

)

\left.z^{*}=z \cdot \tilde{\sigma}(\varphi(v))\right)+\tilde{\mu}(\varphi(v)), z \sim N(0,1)

z∗=z⋅σ(φ(v)))+μ​(φ(v)),z∼N(0,1),
3. z

z^*

z∗和文本嵌入s进行拼接,然后输入解码器DE(·)重构图像

x

x^*

x∗。
4. 重构的图像与原图像计算损失,优化模型。

VAE与GAN联合训练,基于VAE的下变分界,DNM中VAE模块的损失函数可以定义为:

L

D

i

D

D

=

I

^

i

D

i

E

(

φ

i

(

E

D

(

I

^

i

)

)

,

s

)

1

I

i

D

i

E

(

φ

i

(

E

D

(

I

i

)

)

,

s

)

1

K

L

(

N

(

μ

~

i

(

φ

i

(

E

D

(

I

^

i

)

)

)

,

σ

~

i

(

φ

i

(

E

D

(

I

^

i

)

)

)

)

)

N

(

0

,

1

)

)

K

L

(

N

(

μ

~

i

(

φ

i

(

E

D

(

I

i

)

)

)

,

σ

~

i

(

φ

i

(

E

D

(

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  1. z

z^*

z∗和文本嵌入s进行拼接,然后输入解码器DE(·)重构图像

x

x^*

x∗。
4. 重构的图像与原图像计算损失,优化模型。

VAE与GAN联合训练,基于VAE的下变分界,DNM中VAE模块的损失函数可以定义为:

L

D

i

D

D

=

I

^

i

D

i

E

(

φ

i

(

E

D

(

I

^

i

)

)

,

s

)

1

I

i

D

i

E

(

φ

i

(

E

D

(

I

i

)

)

,

s

)

1

K

L

(

N

(

μ

~

i

(

φ

i

(

E

D

(

I

^

i

)

)

)

,

σ

~

i

(

φ

i

(

E

D

(

I

^

i

)

)

)

)

)

N

(

0

,

1

)

)

K

L

(

N

(

μ

~

i

(

φ

i

(

E

D

(

I

i

)

)

)

,

σ

~

i

(

φ

i

(

E

D

(

[外链图片转存中…(img-milC0T4l-1714978614911)]
[外链图片转存中…(img-eKu3ilAj-1714978614911)]
[外链图片转存中…(img-gNh2Epg5-1714978614911)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 18
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值