Self-Attention Generative Adversarial Networks 论文解读

论文地址:https://arxiv.org/abs/1805.08318

 Ian goodfellow 2018年 新作,在GAN生成中加入了attention的机制,同时将SNgan的思想引入到生成器当中。


传统gan的问题
使用小的卷积核很难发现图像中的依赖关系
使用大的卷积核就丧失了卷积网络参数与计算的效率

attention层详解


就是在前一层的feature maps 上加入attention机制,使得gan在生成时能够区别不同的feature maps,
Wf Wg 都是网络的参数


softmax 来得到attention map。

通过下面的式子 进行融合得到加入了attention机制的feature maps。
再讲这些featuremaps 加入到之前的featuremaps当中。

γ的值初始化为0,再逐渐增大权重,这里的意思就是 一开始attention可能训练的不太好 用attention来指引效果不好 等 attention层训练得原来越好之后 加大它的权重

作者引用了sngan的思想 不仅在discrimator中将权重除以权重矩阵的特征值 在generator中也做同样的处理,得到了不错的效果。具体思想参考论文SNGAN。

作者还讨论了attention机制加载网络的哪一层效果最好


作者指出 在一些中层次或者高层次特征使用attention层 能取得更好的效果。
与ACGan SNgan做的对比。


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值