CA-Net论文阅读笔记

Comprehensive Attention Convolutional Neural Networks for Explainable Medical Image Segmenta

IEEE early access

这篇论文总体来说创新性不大——CNN用于分割,引入注意力机制。但文章所解决的问题特别有针对性。

github:https://github.com/HiLab-git/CA-Net

下面直接进入方法部分:

 

III METHODS 

A. 在CNN中引入综合注意力机制

注意力机制主要是针对特征图的空间位置、通道数和尺度,并选择UNet作为backbone,它是一个端到端的网络,有编解码和跳跃连接结构。

CA-Net注意力模块如下:

  • 4个空间注意力模块SA1-4:把前景和背景像素点区分出来,并引入多尺度空间注意力机制,SA1作用在低分辨率,SA2-2作用在其它分辨率的双路注意力机制上。

(补充解释:Non-local-Block,参考https://zhuanlan.zhihu.com/p/110668476某一像素点处的响应是其他所有点处的特征权重和,将每一个点与其他所有点相关联,实现non-local 思想)

  • 4个通道注意力模块CA1-4:相关度高的通道被赋予更大的权重(而不像SE block那样通过全局平均池化获取通道的权重),对于两个支路我的理解是,在每个(展开为全连接层的)channel上分别计算平均值和最大值,

  • 1个尺度注意力模块LA:不同尺度的特征图和对象间存在不同的相关性,所以让网络适应这些不同尺度可以进一步适应不同大小的输入。

这一模块的输入是Unet在解码期间不同尺度上采样的特征图经过不同倍数增大(方法是二次样条插值)后concat在一起的结果,这里的gama有两种,一种是scale-wise,即在4个scale上学出来的4个系数;另一种是pixel-wise,是在concat的结果上每个像素点都学习出来的系数。

  • 7
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值