超分辨率中的注意力机制

深度学习中的注意力机制

一.注意机制可分为两种类型

根据它们所适用的范围:通道注(CA)和空间注意(SA)。CA和SA可以进一步分为三个过程:
1.squeeze:通过通道(CA)或空间区域(SA)从X中提取一个或多个统计量S的过程。统计量通过池化方法提取,SA可使用1X1的卷积。
2.excitation:利用提取的统计数据,进行激励过程捕获通道(CA)或空间区域(SA)之间的相互关系,生成一个大小为1×1×C (CA)或H×W×1 (SA)。在所有的方法中,CA都使用两个全连接(FC)层,其瓶颈结构约简率为r。对于SA,使用一个或两个卷积。
3.scaling:为了重新校准输入的特征图,生成的注意力图通过一个范围为0到1的sigmoid函数进行归一化,然后用于与X进行通道或空间方向的乘法。对所有方法应用相同的缩放过程。

二.经典的注意力机制

1.RCAB

在这里插入图片描述
RCAB中使用的注意力机制用于分类和检测任务的挤压-激励(SE)块的注意力机制相同,该机制的目的是通过利用通道间的相关性来重新校准滤波器响应。在挤压过程中采用平均池化,激励过程如下:
在这里插入图片描述

2.CBAM

  • 3
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值