Tensorflow2.* keras CBAM 代码实现

理论推导

整体模型框架

试验结果显示串联效果优于并联结果,channel attention在前优于spatial attention在前。
因此,最后采取的是一个channel attention module与一个spatial attention module串联的形式。
在这里插入图片描述
表达式如下:
F ′ = M c ( F ) ⨂ F {F}'=M_{c}(F)\bigotimes F F=Mc(F)F
F ′ ′ = M s ( F ′ ) ⨂ F ′ {F}''=M_{s}({F}')\bigotimes {F}' F=Ms(F)F
式中,
F ∈ R C × H × W F \in \mathbb{R}^{C\times H\times W } FRC×H×W表示module输入特征层
M c ∈ R C × 1 × 1 M_{c} \in \mathbb{R}^{C\times 1\times 1 } McRC×1×1表示1D channel attention
M s ∈ R 1 × H × W M_{s} \in \mathbb{R}^{1\times H\times W } MsR1×H×W表示2D spatial attention
⨂ \bigotimes 表示同位元素相乘

Channel attention module

1.同时进行了global maxpool和avgpool;
2. 共享权重且具有瓶颈机制两层全连接;
3. 同位相加后采用sigmoid激活,得到输出;

在这里插入图片描述
因此对应 M c ( F ) M_{c}(F) Mc(F)的表达式如下:
M c ( F ) = σ ( M L P ( A v g P o o l ( F ) ) + M L P ( M a x P o o l ( F ) ) = σ ( W 1 ( W 0 ( F a v g c ) ) +

  • 12
    点赞
  • 105
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值