conv2d函数_Deep InfoMax损失函数小记

97645a1fa67d81b191a261498dcbc80b.png

无监督表示学习随着深度学习的迅猛发展,近年来呈现出百花齐放之态。19年ICLR会议中收录的Learning Deep Representations by Mutual Information Estimation and Maximization这篇Bengio组大作,从互信息的视角给出了一种新的思路。

关于Deep InfoMax(DIM)的解读已有珠玉在前, 只是多数分析的博客更关注本文的理论推导,而在这篇文章的实现上,仅凭理论上的指引,我无法复原出loss function的细节,于是在github搜了本文的源码。原作者的源码封装较好,略略一读有些头大,于是我转而研读另一版的pytorch代码,初步明确了DIM的loss function一种实现方式。

原文中,DIM的优化目标是:

6b8736aaa7bf523e91e07c88c0c9de86.png
论文中的等式(8)

根据论文可知,上式中的字母含义分别为:

  • :表示用于提取输入图像特征的编码器Encoder。

fe256c12eceb613b8b9a4c20648c2faa.png
  • :输入的原始图像。

0b4ef8419f00d5a94cbb18d61036f89c.png
从输入空间得到的训练样本集
  • :调节各部分占比的超参数。
  • :Mutual Information(MI) estimator,互信息估计器。
  • :全局和局部目标的判别器模型的参数。
  • :看论文示意图中M x M的feature map可知,
    就是低层特征的数量。
  • :第i个低层特征(共
    个)。
  • :仿照adversarial autoencoders(AAE)设计的D
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值