《Attention Augmented Convolutional Networks》注意力的神经网络

paper: 《Attention Augmented Convolutional Networks》 https://arxiv.org/pdf/1904.09925.pdf

这篇文章是google brain的,应该有分量。上来就说:卷积神经网络有一个重要的弱点就是 它仅仅操作于于一个领域,对于没有考虑到全局信息有损失。

(这就是全局和局部的辨证关系。)

注意力机制,以一种能够把握长距离作用的手段,在序列模型和生成模型里使用。这篇文章使用注意力机制到判别模型中来,作为替代卷积的手段。(非常具有ambition)

这篇文章由于使用的是tensorflow 所以表述和 pytorch不同 (tensorfow 是 w*h*c pytorch 是 c*w*h)

在论文的self-attention over image 部分里使用了《Attention is All You Need》的方法介绍有人已经研究过了 在这里 :https://kexue.fm/archives/4765    (苏同学的博客里有不少干货)

总之和上一篇里Self-Attention Generative Adversarial Networks介绍的方法几乎一致。所以就直接参考上边博客的内容。

 

转载于:https://www.cnblogs.com/yjphhw/p/10767348.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值