Deep InfoMax (DIM)

无监督提取特征

  • 特征提取是无监督学习中很重要且很基本的一项任务,常见形式是训练一个编码器将原始数据集编码为一个固定长度的向量。自然地,我们对这个编码器的基本要求是:保留原始数据的(尽可能多的)重要信息

重构 → \rightarrow 最大化互信息

  • 自编码器:我们怎么知道编码向量保留了重要信息呢?一个很自然的想法是这个编码向量应该也要能还原出原始图片出来,所以我们还训练一个解码器,试图重构原图片,最后的 loss 就是原始图片和重构图片的 mse。这导致了标准的自编码器的设计
  • 重构的思考:然而,值得思考的是 “重构” 这个要求是否合理?首先,我们可以发现通过低维编码重构原图的结果通常是很模糊的,这可以解释为损失函数 mse 要求 “逐像素” 重建过于苛刻。又或者可以理解为,对于图像重构事实上我们并没有非常适合的 loss 可以选用,最理想的方法是用对抗网络训练一个判别器出来,但是这会进一步增加任务难度。其次,一个很有趣的事实是:我们大多数人能分辨出很多真假币,但如果要我们画一张百元大钞出来,我相信基本上画得一点都不像。这表明,对于真假币识别这个任务,可以设想我们有了一堆真假币供学习,我们能从中提取很丰富的特征,但是这些特征并不足以重构原图,它只能让我们分辨出这堆纸币的差异。也就是说,对于数据集和任务来说,合理的、充分的特征并不一定能完成图像重构
  • 互信息:上面的讨论表明,重构不是好特征的必要条件。好特征的基本原则应当是 “能够从整个数据集中辨别出该样本出来”,也就是说,提取出该样本(最)独特的信息。如何衡量提取出来的信息是该样本独特的呢?我们用 “互信息” 来衡量

最大化互信息

互信息

  • 我们用 X X X 表示原始图像的集合, Z Z Z 表示编码向量的集合, p ( z ∣ x ) p(z|x) p(zx) 表示 x x x 所产生的编码向量的分布,我们设它为高斯分布,它与 VAE 中的 encoder 相同,都是输入 x x x,输出 z z z 的一个高斯分布,该高斯分布满足各分量独立。那么可以用互信息来表示 X , Z X,Z X,Z 的相关性
    I ( X , Z ) = ∬ p ( z ∣ x ) p ( x ) log ⁡ p ( z ∣ x ) p ( z ) d x d z I(X,Z) = \iint p(z|x){p}(x)\log \frac{p(z|x)}{p(z)}dxdz I(X,Z)=p(zx)p(x)logp(z)p(zx)dxdz其中, p ( x ) p(x) p(x) 为原始数据的分布, p ( z ) p(z) p(z) 是在 p ( z ∣ x ) p(z|x) p(zx) 给定之后整个 Z Z Z 的分布,即
    p ( z ) = ∫ p ( z ∣ x ) p ( x ) d x p(z) = \int p(z|x){p}(x)dx p(z)=p(zx)p(x)dx一个好的特征编码器,应该要使得互信息尽量地大,即
    p ( z ∣ x ) = max ⁡ p ( z ∣ x ) I ( X , Z ) p(z|x) = \max_{p(z|x)} I(X,Z) p(zx)=p(zx)maxI(X,Z)

先验分布

  • 相对于自编码器,变分自编码器同时还希望隐变量服从标准正态分布的先验分布,这有利于使得编码空间更加规整,甚至有利于解耦特征,便于后续学习。因此,在这里我们同样希望加上这个约束
  • Deep INFOMAX 论文中通过类似 AAE (Adversarial Autoencoder) 的思路通过对抗来加入这个约束 (i.e. 引入 Discriminator 衡量两个分布之间的散度,Encoder 则作为 Generator 去最小化 Discriminator 得到的散度),但众所周知对抗是一个最大最小化过程,需要交替训练,不够稳定,也不够简明。这里提供另一种更加端到端的思路:设 q ( z ) q(z) q(z) 为标准正态分布,我们去最小化 p ( z ) p(z) p(z) 与先验分布 q ( z ) q(z) q(z) 的 KL 散度
    K L ( p ( z ) ∥ q ( z ) ) = ∫ p ( z ) log ⁡ p ( z ) q ( z ) d z KL(p(z)\Vert q(z))=\int p(z)\log \frac{p(z)}{q(z)}dz KL(p(z)q(z))=p(z)logq(z)p(z)dz

损失函数

简化先验项

  • 将最大化互信息与接近先验分布的目标函数加权混合起来,我们可以得到最小化的总目标
    p ( z ∣ x ) = min ⁡ p ( z ∣ x ) { − I ( X , Z ) + λ K L ( p ( z ) ∥ q ( z ) ) } = min ⁡ p ( z ∣ x ) { − ∬ p ( z ∣ x ) p ( x ) log ⁡ p ( z ∣ x ) p ( z ) d x d z + λ ∫ p ( z ) log ⁡ p ( z ) q ( z ) d z } \begin{aligned}p(z|x) =& \min_{p(z|x)} \left\{- I(X,Z) + \lambda KL(p(z)\Vert q(z))\right\}\\ =&\min_{p(z|x)}\left\{-\iint p(z|x){p}(x)\log \frac{p(z|x)}{p(z)}dxdz + \lambda\int p(z)\log \frac{p(z)}{q(z)}dz\right\}\end{aligned} p(zx)==p(zx)min{I(X,Z)+λKL(p(z)q(z))}p(zx)min{p(zx)p(x)logp(z)p(zx)dxdz+λp(z)logq(z)p(z)dz}将上式稍加变换得到:
    p ( z ∣ x ) = min ⁡ p ( z ∣ x ) { ∬ p ( z ∣ x ) p ( x ) [ − ( 1 + λ ) log ⁡ p ( z ∣ x ) p ( z ) + λ log ⁡ p ( z ∣ x ) q ( z ) ] d x d z } p(z|x) =\min_{p(z|x)}\left\{\iint p(z|x){p}(x)\left[-(1+\lambda)\log \frac{p(z|x)}{p(z)} + \lambda \log \frac{p(z|x)}{q(z)}\right]dxdz\right\} p(zx)=p(zx)min{p(zx)p(x)[(1+λ)logp(z)p(zx)+λlogq(z)p(zx)]dxdz}注意上式正好是互信息与 E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))] Exp(x)[KL(p(zx)q(z))] 的加权求和,而 K L ( p ( z ∣ x ) ∥ q ( z ) ) KL(p(z|x)∥q(z)) KL(p(zx)q(z)) 这一项是可以算出来的,它正好是 VAE 的那一项 KL 散度,即
    K L ( N ( μ , σ 2 ) ∥ N ( 0 , 1 ) ) = E x ∼ N ( μ , σ 2 ) [ log ⁡ e − ( x − μ ) 2 / 2 σ 2 / 2 π σ 2 e − x 2 / 2 / 2 π ] = E x ∼ N ( μ , σ 2 ) [ log ⁡ { 1 σ 2 exp ⁡ { 1 2 [ x 2 − ( x − μ ) 2 / σ 2 ] } } ] = 1 2 E x ∼ N ( μ , σ 2 ) [ − log ⁡ σ 2 + x 2 − ( x − μ ) 2 / σ 2 ] = 1 2 E x ∼ N ( μ , σ 2 ) [ − log ⁡ σ 2 + ( 1 − 1 / σ 2 ) x 2 + 2 μ x / σ 2 − μ 2 / σ 2 ] = 1 2 [ − log ⁡ σ 2 + ( 1 − 1 / σ 2 ) ( μ 2 + σ 2 ) + 2 μ 2 / σ 2 − μ 2 / σ 2 ] = 1 2 ( − log ⁡ σ 2 + μ 2 + σ 2 − 1 ) \begin{aligned}&KL\Big(N(\mu,\sigma^2)\Big\Vert N(0,1)\Big)\\ =&\mathbb E_{x\sim N(\mu,\sigma^2)}\left[\log \frac{e^{-(x-\mu)^2/2\sigma^2}/\sqrt{2\pi\sigma^2}}{e^{-x^2/2}/\sqrt{2\pi}}\right]\\ =&\mathbb E_{x\sim N(\mu,\sigma^2)}\left[ \log \left\{\frac{1}{\sqrt{\sigma^2}}\exp\left\{\frac{1}{2}\big[x^2-(x-\mu)^2/\sigma^2\big]\right\} \right\}\right]\\ =&\frac{1}{2}\mathbb E_{x\sim N(\mu,\sigma^2)} \Big[-\log \sigma^2+x^2-(x-\mu)^2/\sigma^2 \Big]\\ =&\frac{1}{2}\mathbb E_{x\sim N(\mu,\sigma^2)} \Big[-\log \sigma^2+(1-1/\sigma^2)x^2+2\mu x/\sigma^2-\mu^2/\sigma^2 \Big]\\ =&\frac{1}{2}\Big[-\log \sigma^2+(1-1/\sigma^2)(\mu^2+\sigma^2)+2\mu^2/\sigma^2-\mu^2/\sigma^2 \Big]\\ =&\frac{1}{2}\Big(-\log \sigma^2+\mu^2+\sigma^2-1\Big) \end{aligned} ======KL(N(μ,σ2) N(0,1))ExN(μ,σ2)[logex2/2/2π e(xμ)2/2σ2/2πσ2 ]ExN(μ,σ2)[log{σ2 1exp{21[x2(xμ)2/σ2]}}]21ExN(μ,σ2)[logσ2+x2(xμ)2/σ2]21ExN(μ,σ2)[logσ2+(11/σ2)x2+2μx/σ2μ2/σ2]21[logσ2+(11/σ2)(μ2+σ2)+2μ2/σ2μ2/σ2]21(logσ2+μ2+σ21) K L ( N ( μ , diag ( σ 2 ) ) ∥ N ( 0 , I ) ) = 1 2 ∑ i = 1 d ( μ i 2 + σ i 2 − log ⁡ σ i 2 − 1 ) KL\Big(N(\mu,\text{diag}(\sigma^2))\Big\Vert N(0,I)\Big)=\frac{1}{2} \sum_{i=1}^d \Big(\mu_{i}^2 + \sigma_{i}^2 - \log \sigma_{i}^2 - 1\Big) KL(N(μ,diag(σ2)) N(0,I))=21i=1d(μi2+σi2logσi21)
  • 至此所以我们已经成功地解决了整个 loss 的一半,可以写为
    p ( z ∣ x ) = min ⁡ p ( z ∣ x ) { − β ⋅ I ( X , Z ) + γ ⋅ E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] } p(z|x) =\min_{p(z|x)}\left\{-\beta\cdot I(X,Z)+\gamma\cdot \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))]\right\} p(zx)=p(zx)min{βI(X,Z)+γExp(x)[KL(p(zx)q(z))]}下面我们主攻互信息这一项

互信息本质

  • 互信息是 p ( z ∣ x ) p ( x ) p(z|x){p}(x) p(zx)p(x) p ( z ) p ( x ) p(z)p(x) p(z)p(x) 这两个分布的 KL 散度
    I ( X , Z ) = K L ( p ( z ∣ x ) p ( x ) ∥ p ( z ) p ( x ) ) \begin{aligned}I(X,Z) =& KL(p(z|x){p}(x)\Vert p(z){p}(x)) \end{aligned} I(X,Z)=KL(p(zx)p(x)p(z)p(x))注意 KL 散度理论上是无上界的,我们要去最大化一个无上界的量,这件事情有点危险,很可能得到无穷大的结果。所以,为了更有效地优化,我们抓住 “最大化互信息就是拉大 p ( z ∣ x ) p ( x ) p(z|x){p}(x) p(zx)p(x) p ( z ) p ( x ) p(z)p(x) p(z)p(x) 之间的距离” 这个特点,我们不用 KL 散度,而换一个有上界的度量:JS 散度,它定义为
    J S ( P , Q ) = 1 2 K L ( P ∥ P + Q 2 ) + 1 2 K L ( Q ∥ P + Q 2 ) ∈ [ 0 , 1 2 log ⁡ 2 ] JS(P,Q) = \frac{1}{2}KL\left(P\left\Vert\frac{P+Q}{2}\right.\right)+\frac{1}{2}KL\left(Q\left\Vert\frac{P+Q}{2}\right.\right)\in[0,\frac{1}{2}\log2] JS(P,Q)=21KL(P 2P+Q)+21KL(Q 2P+Q)[0,21log2]我们最大化它的时候,同样能起到类似最大化互信息的效果,但是又不用担心无穷大问题。于是我们用下面的目标取代目标式:
    p ( z ∣ x ) = min ⁡ p ( z ∣ x ) { − β ⋅ J S ( p ( z ∣ x ) p ( x ) , p ( z ) p ( x ) ) + γ ⋅ E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] } p(z|x) =\min_{p(z|x)}\left\{-\beta\cdot JS\big(p(z|x){p}(x), p(z){p}(x)\big)+\gamma\cdot \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))]\right\} p(zx)=p(zx)min{βJS(p(zx)p(x),p(z)p(x))+γExp(x)[KL(p(zx)q(z))]}

攻克互信息

  • 在 f-GAN 中,我们知道一般的 f f f 散度的局部变分推断
    D f ( P ∥ Q ) = max ⁡ T ( E x ∼ p ( x ) [ T ( x ) ] − E x ∼ q ( x ) [ g ( T ( x ) ) ] ) {D}_f(P\Vert Q) = \max_{T}\Big(\mathbb{E}_{x\sim p(x)}[T(x)]-\mathbb{E}_{x\sim q(x)}[g(T(x))]\Big) Df(PQ)=Tmax(Exp(x)[T(x)]Exq(x)[g(T(x))])其中, D f ( P ∥ Q ) {D}_f(P\Vert Q) Df(PQ) P , Q P,Q P,Q 间的 f f f 散度, g g g f f f 的共轭函数, T ( x ) T(x) T(x) 可以用 NN 逼近 (即 f-GAN 中的 Discriminator). 对于 JS 散度,给出的结果是
    J S ( P , Q ) = max ⁡ T ( E x ∼ p ( x ) [ log ⁡ σ ( T ( x ) ) ] + E x ∼ q ( x ) [ log ⁡ ( 1 − σ ( T ( x ) ) ] ) JS(P,Q) = \max_{T}\Big(\mathbb{E}_{x\sim p(x)}[\log \sigma(T(x))] + \mathbb{E}_{x\sim q(x)}[\log(1-\sigma(T(x))]\Big) JS(P,Q)=Tmax(Exp(x)[logσ(T(x))]+Exq(x)[log(1σ(T(x))])它其实就是 vanilla GAN 中的 V ( G , D ) V(G,D) V(G,D),代入 p ( z ∣ x ) p ( x ) p(z|x)p(x) p(zx)p(x), p ( z ) p ( x ) p(z)p(x) p(z)p(x) 就得到
    J S ( p ( z ∣ x ) p ( x ) , p ( z ) p ( x ) ) = max ⁡ T ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T ( x , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T ( x , z ) ) ] ) \begin{aligned}&JS\big(p(z|x){p}(x), p(z){p}(x)\big)\\=& \max_{T}\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T(x,z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T(x,z))]\Big)\end{aligned} =JS(p(zx)p(x),p(z)p(x))Tmax(E(x,z)p(zx)p(x)[logσ(T(x,z))]+E(x,z)p(z)p(x)[log(1σ(T(x,z))])要想计算出上述 JS 散度,就需要引入一个判别网络 σ ( T ( x , z ) ) σ(T(x,z)) σ(T(x,z)) x x x 及其对应的 z z z 视为一个正样本对, x x x 及随机抽取的 z z z 则视为负样本,然后最大化似然函数,等价于最小化交叉熵
  • 这样一来,通过负采样的方式,我们就给出了估计 JS 散度的一种方案,从而也就给出了估计 JS 版互信息的一种方案,从而成功攻克了互信息。现在,具体的 loss 为
    p ( z ∣ x ) , T ( x , z ) = min ⁡ p ( z ∣ x ) { − β ⋅ max ⁡ T ( x , z ) ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T ( x , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T ( x , z ) ) ] ) + γ ⋅ E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] } = min ⁡ p ( z ∣ x ) , T ( x , z ) { − β ⋅ ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T ( x , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T ( x , z ) ) ] ) + γ ⋅ E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] } \begin{aligned}&p(z|x),T(x,z) \\ =&\min_{p(z|x)}\Big\{-\beta\cdot\max_{T(x,z)}\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T(x,z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T(x,z))]\Big)\\ &\qquad\qquad\qquad+\gamma\cdot \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))]\Big\}\\ =&\min_{p(z|x),T(x,z)}\Big\{-\beta\cdot\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T(x,z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T(x,z))]\Big)\\ &\qquad\qquad\qquad+\gamma\cdot \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))]\Big\}\end{aligned} ==p(zx),T(x,z)p(zx)min{βT(x,z)max(E(x,z)p(zx)p(x)[logσ(T(x,z))]+E(x,z)p(z)p(x)[log(1σ(T(x,z))])+γExp(x)[KL(p(zx)q(z))]}p(zx),T(x,z)min{β(E(x,z)p(zx)p(x)[logσ(T(x,z))]+E(x,z)p(z)p(x)[log(1σ(T(x,z))])+γExp(x)[KL(p(zx)q(z))]}总结一下, KL 散度那一项就是 VAE 中的正则项,它要求 encoder 输出的高斯分布接近标准高斯分布,损失函数照搬 VAE 的即可:
    K L ( N ( μ , diag ( σ 2 ) ) ∥ N ( 0 , I ) ) = 1 2 ∑ i = 1 d ( μ i 2 + σ i 2 − log ⁡ σ i 2 − 1 ) KL\Big(N(\mu,\text{diag}(\sigma^2))\Big\Vert N(0,I)\Big)=\frac{1}{2} \sum_{i=1}^d \Big(\mu_{i}^2 + \sigma_{i}^2 - \log \sigma_{i}^2 - 1\Big) KL(N(μ,diag(σ2)) N(0,I))=21i=1d(μi2+σi2logσi21)对于互信息那一项,我们首先将互信息表示为 KL 散度的形式,然后将 KL 散度替换为 JS 散度,最终通过与 vanilla GAN 相同的方法,用 Discriminator 衡量 JS 散度,然后用 encoder 最大化 JS 散度从而最大化 encoder 输入和输出之间的互信息,与 vanilla GAN 不同的是,这里 Discriminator 和 encoder 的优化方向相同,都是使得 V ( G , D ) V(G,D) V(G,D) 最大。在具体实现上,首先我们随机选一张图片 x x x,通过编码器就可以得到 z z z 的均值和方差,然后重参数就可以得到 z x z_x zx,这样的一个 ( x , z x ) (x,z_x) (x,zx) 对构成一个正样本;负样本呢?为了减少计算量,我们直接在 batch 内对图片进行随机打乱,然后按照随机打乱的顺序作为选择负样本的依据,也就是说,如果 x x x 是原来 batch 内的第 4 张图片,将图片打乱后第 4 张图片是 x ^ \hat x x^,那么 ( x , z x ) (x,z_x) (x,zx) 就是正样本, ( x ^ , z x ) (\hat x,z_x) (x^,zx) 就是负样本。并且由于 encoder 和 Discriminator 的优化目标相同且都需要相似的计算过程 (e.g. 它们都需要对输入 x x x 进行编码),因此我们可以共享 encoder 和 Discriminator 的部分结构,例如将 x x x 用 encoder 抽取出的特征图替代 (实际上,我们甚至可以直接用 ( z x , z x ) (z_x,z_x) (zx,zx) 作为正样本, ( z x ^ , z x ) (z_{\hat x},z_x) (zx^,zx) 作为负样本,这是因为就算用原图 x x x,Discriminator 最终也是要不断地将 x x x 降维,然后和 z z z 交互,最终输出一个数来的,用全局特征 z z z 来代替样本 x x x 相当于共享了两者的编码器)

Deep InfoMax 论文中除了上面介绍的 Jensen-Shannon MI estimator (JSD),还给出了其他两种对互信息的估算方法,包括 a lower-bound to the MI based on the Donsker-Varadhan representation of the KL-divergence (DV-based objective) (论文中 (2) 式,证明可参考 Mine: mutual information neural estimation 附录) 和 Noise-Contrastive Estimation (infoNCE) (论文中 (5) 式,可参考 Representation learning with contrastive predictive coding). 论文中提到 JSD 比 DV-based objective 在实际应用中效果更好,并在实验中重点比较了 JSD 和 infoNCE 的效果,发现 infoNCE 在下游任务上的效果经常好于 JSD (this effect diminishes with more challenging data),但 infoNCE 和 DV 相比 JSD 需要更多的负样本数量 (samples from p ( z ) p ( x ) p(z)p(x) p(z)p(x)),JSD 对负样本数量不敏感

从全局到局部

  • 上面的做法,实际上就是考虑了整张图片之间的关联,也就是衡量的是输入图像 x x x 和隐变量 z z z 之间的互信息,但是我们知道,图片的相关性更多体现在局部中(也就是因为这样所以我们才可以对图片使用 CNN)。换言之,图片的识别、分类等应该是一个从局部到整体的过程。因此,有必要把 “局部互信息” 也考虑进来
  • 通过 CNN 进行编码的过程一般是:
    原始图片 x → 多个卷积层 h × w × c 的特征 → 卷积和全局池化 固定长度的向量 z \text{原始图片}x\xrightarrow{\text{多个卷积层}} h\times w\times c\text{的特征} \xrightarrow{\text{卷积和全局池化}} \text{固定长度的向量}z 原始图片x多个卷积层 h×w×c的特征卷积和全局池化 固定长度的向量z我们已经考虑了 x x x z z z 的关联,那么中间层特征(feature map)和 z z z 的关联呢?我们记中间层特征为 { C i j ( x ) ∣ i = 1 , 2 , … , h ; j = 1 , 2 , … , w } \{C_{ij}(x)|i=1,2,…,h;j=1,2,…,w\} {Cij(x)i=1,2,,h;j=1,2,,w} 也就是视为 h × w h×w h×w 个向量的集合,我们也去算这 h × w h×w h×w 个向量跟 z x z_x zx 的互信息,称为 “局部互信息”。换个角度来想,也可以这样理解:局部互信息的引入相当于将每个小局部也看成了一个样本,这样就相当于原来的 1 个样本变成了 1 + h w 1+hw 1+hw 个样本,大大增加了样本量,所以能提升效果。同时这样做也保证了图片的每一个 “角落” 都被用上了,因为低维压缩编码,比如 32 × 32 × 3 32×32×3 32×32×3 编码到 128 128 128 维,很可能左上角的 8 × 8 × 3 > 128 8×8×3>128 8×8×3>128 的区域就已经能够唯一分辨出图片出来了,但这不能代表整张图片,因此要想办法让整张图片都用上。估算方法跟全局是一样的,将每一个 C i j ( x ) C_{ij}(x) Cij(x) z x z_x zx 拼接起来得到 [ C i j ( x ) , z x ] [C_{ij}(x),z_x] [Cij(x),zx],相当于得到了一个更大的 feature map,然后对这个 feature map 用多个 1 × 1 1\times1 1×1 的卷积层来作为局部互信息的估算网络 T l o c a l T_{local} Tlocal (i.e. Discriminator)。负样本的选取方法也是用在 batch 内随机打算的方案
    在这里插入图片描述
  • 现在,加入局部互信息的总 loss
    p ( z ∣ x ) , T 1 ( x , z ) , T 2 ( C i j , z ) = min ⁡ p ( z ∣ x ) { − α ⋅ max ⁡ T 1 ( x , z ) ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T 1 ( x , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T 1 ( x , z ) ) ] ) − β h w ∑ i , j max ⁡ T 2 ( C i j , z ) ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T 2 ( C i j , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T 2 ( C i j , z ) ) ] ) + γ ⋅ E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] } = min ⁡ p ( z ∣ x ) , T 1 ( x , z ) , T 2 ( C i j , z ) { − α ⋅ ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T 1 ( x , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T 1 ( x , z ) ) ] ) − β h w ∑ i , j ( E ( x , z ) ∼ p ( z ∣ x ) p ( x ) [ log ⁡ σ ( T 2 ( C i j , z ) ) ] + E ( x , z ) ∼ p ( z ) p ( x ) [ log ⁡ ( 1 − σ ( T 2 ( C i j , z ) ) ] ) + γ ⋅ E x ∼ p ( x ) [ K L ( p ( z ∣ x ) ∥ q ( z ) ) ] } \begin{aligned}&p(z|x),T_1(x,z),T_2(C_{ij}, z)=\min_{p(z|x)}\Big\{\\ &\quad-\alpha\cdot\max_{T_1(x,z)}\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T_1(x,z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T_1(x,z))]\Big)\\ &\quad-\frac{\beta}{hw}\sum_{i,j}\max_{T_2(C_{ij}, z)}\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T_2(C_{ij},z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T_2(C_{ij},z))]\Big)\\ &\quad+\gamma\cdot \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))]\Big\} \\&=\min_{p(z|x),T_1(x,z),T_2(C_{ij}, z)}\Big\{\\ &\quad-\alpha\cdot\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T_1(x,z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T_1(x,z))]\Big)\\ &\quad-\frac{\beta}{hw}\sum_{i,j}\Big(\mathbb{E}_{(x,z)\sim p(z|x){p}(x)}[\log \sigma(T_2(C_{ij},z))] + \mathbb{E}_{(x,z)\sim p(z){p}(x)}[\log(1-\sigma(T_2(C_{ij},z))]\Big)\\ &\quad+\gamma\cdot \mathbb{E}_{x\sim{p}(x)}[KL(p(z|x)\Vert q(z))]\Big\}\end{aligned} p(zx),T1(x,z),T2(Cij,z)=p(zx)min{αT1(x,z)max(E(x,z)p(zx)p(x)[logσ(T1(x,z))]+E(x,z)p(z)p(x)[log(1σ(T1(x,z))])hwβi,jT2(Cij,z)max(E(x,z)p(zx)p(x)[logσ(T2(Cij,z))]+E(x,z)p(z)p(x)[log(1σ(T2(Cij,z))])+γExp(x)[KL(p(zx)q(z))]}=p(zx),T1(x,z),T2(Cij,z)min{α(E(x,z)p(zx)p(x)[logσ(T1(x,z))]+E(x,z)p(z)p(x)[log(1σ(T1(x,z))])hwβi,j(E(x,z)p(zx)p(x)[logσ(T2(Cij,z))]+E(x,z)p(z)p(x)[log(1σ(T2(Cij,z))])+γExp(x)[KL(p(zx)q(z))]}

References

Deep Graph Infomax是一篇由Petar Veličković等人于2019年在ICLR上发表的论文。该论文提出了一种基于图对比学习的方法,旨在学习图数据的表示。方法中使用了一个GNN Encoder来将图的节点编码为向量表示,通过一个Read-out函数将节点表示汇总为整个图的表示向量。同时,该方法对原始图进行扰动,并使用相同的GNN Encoder对扰动后的图进行编码,然后通过一个Decoder来使图的表示与原始图的节点表示更接近,并使扰动后的图的节点表示与原始图的节点表示更加疏远。这篇论文的贡献是提出了一种基于互信息最大化的自监督图学习通用框架。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [图对比学习三篇顶会论文](https://blog.csdn.net/qq_51072801/article/details/130251996)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* [论文阅读《Deep Graph Infomax(DGI)》](https://blog.csdn.net/m0_71014828/article/details/125199457)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值