Attention Mechanisms in Computer Vision: A Survey(三)

接上一篇博客:Attention Mechanisms in Computer Vision: A Survey(二)
我又回来了,这篇综述简直信息量巨大,这是我第三天消化这篇综述了,有兴趣的同学可以读一下原文。

一、Branch Attention

分支注意可以被看作是一种动态的分支选择机制:注意哪个分支,与多分支结构一起使用。

(一)、Highway networks

受长短期记忆网络的启发,Srivastava等人提出了Highway networks,该网络采用自适应选通机制,使信息能够跨层流动,以解决训练非常深层网络的问题。 假设一个普通的神经网络由L层组成,并且 H l ( X ) H_l(X) HlX表示第L层上的非线性变换,那么Highway networks可以表示为
在这里插入图片描述
T l ( X ) T_l(X) TlX表示调节第l层的信息流的变换门。 X l X_l Xl Y l Y_l Yl是第l层的输入和输出。
选通机制和跳接结构使得使用简单的梯度下降方法直接训练非常深的Highway networks成为可能。与固定跳过连接不同,选通机制适应输入,这有助于跨层路由信息。Highway networks可以并入任何CNN。

(二)SKNet

见博文

(三)、CondConv

CNN中的一个基本假设是所有卷积核都是相同的。一般情况下增强网络表现力的典型方法是增加其深度或宽度,这会带来大量额外的计算成本。为了更有效地提高卷积神经网络的容量,Yang等人提出了一种新的多分支算子CondConv,可以定义一个普通的卷积 :

在这里插入图片描述
∗ 表示卷积。所有样本的可学习参数W都相同。CondConv自适应地组合了多个卷积核,可以写成:
在这里插入图片描述

α是一个可学习的权重向量
在这里插入图片描述
这个过程相当于多个experts的集合,如下图所示:
在这里插入图片描述
CondConv充分利用了多分支结构的优点,采用了一种计算量小的分支注意方法。它提供了一种有效提高网络容量的新方法。

(四)、Dynamic Convolution

轻量级CNN极低的计算成本限制了网络的深度和宽度,进一步降低了其代表性。为了解决上述问题,Chen等人提出了动态卷积,这是一种新的算子设计,可以增加表征能力,但额外的计算成本可以忽略不计,并且不会与CondConv并行改变网络的宽度或深度。 动态卷积使用K个大小和输入/输出维度相同的并行卷积核,而不是每层一个核。与SE块一样,它采用挤压和激励机制为不同的卷积核生成注意权重。这些卷积核通过加权求和动态聚合,并应用于输入特征映射X:
在这里插入图片描述
卷积通过卷积核的权重和偏差之和进行组合。
与将卷积应用于特征映射相比,压缩、激励和加权求和的计算成本极低。因此,动态卷积提供了一种有效的操作来提高表示能力,并且可以轻松地用作任何卷积的替代品。

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值