论文解读:医学影像中的注意力机制

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

来源|Daniel Liu@知乎,https://zhuanlan.zhihu.com/p/138555896

Multi-scale self-guided attention for medical image segmentation

该论文的方法为2019年发布的在CHAOS MRI Dataset上进行医学图像分割的最优方法,最终的Dice为86.75. 

Introduction:对过往医学图像分割方法的看法

 

一、对于过往的模型的看法

1、在多数经典模型中对于多尺寸的使用,如unet结构,FCN结构。由于在一开始就是同样的low-level信息进行不断的特征提取,所以会造成信息的冗余使用。

2、过往模型应用在像素级别的分割挑战中的时候(如,医学领域的分割),可能会表现出判别能力的不足。

二、对于当下用于提高学习特征表达能力的方法,如多尺度的上下文融合,使用空洞卷积,pooling等方式的看法

1、尽管之前的做法可以获得目标在不同尺寸下的信息,但是对于所有的image的上下文联系都是homogenous的和非自适应的, 忽略 了在不同类别中,local-feature和上下文依赖之间的差异。

2、这些多尺度的上下文依赖基本上都是人为设定的,缺乏模型自身的灵活性. 这使得对于图像中的一些长距离的联系没有办法被充分利用,而这些对于医学图像分割却是至关重要的。

三、对于注意力机制的看法

1、注意力机制的运用可以很好的突触分割区域的特征,并且抑制其他的噪音部分。

2、作者在本文中也使用了较为完善的注意力机制:a.对于不同尺寸的语义信息使用注意力机制;b.每个注意力模型均由position注意力模型和channel注意力模型两个部分组成;通过这样的方式可以让模型学习到更加广泛和丰富的上下文依赖信息,以及提升不同channel间上下文的依赖程度。

Method:对论文模型的详细描述

一、模型的总体描述

由于在常规的CNN中,global feature通常都是基于local receptive field 获得的。所以对于long-range的上下文依赖并没有被充分的表达出来。因此作者引入了注意力机制来解决该问题。首先通过多尺寸的策略来获取全局feature, 然后将所学习到的全局特征引入到注意力模块中。注意力模块由空间注意力模块和channel注意力模块两部分组成。注意力模块一方面可以帮助局部特征与全局特征的融合,另一方面也可以过滤到不相关的噪音信息。模型整体结构如下图所示:

eaae8b08358b4e4edf860f653db2d322.jpeg

二、多尺寸注意力机制

整个模型是基于ResNet-101进行的改进,Res-2, Res-3, Res-4, Res-5所生成的特征图F0,F1,F2, F3; 将他们通过线性插值的方式上采样到相同的尺寸,即F's. 讲所生成的F'0, F'1, F'2, F'3进行concate操作,而后进行卷积操作,生成多尺寸融合特征图FMS:

5022dde293c93c1d99bbf3b19fa8690f.png

接着,把生成的FMS与F'0, F'1, F'2, F'3分别进行concate操作,而后进行卷积,最后fed into 注意力模型。得到不同的尺寸下的注意力特征图A0, A1,A2,A3:

3e92f05d052d090284275f85be048896.png

三、空间和channel注意力特征图

这篇文章中的spatial and channel attention self-attention modules 主要来自于另外一篇论文:Dual Attention Network for Scene Segmentation

aa0f81f32afc7b112c2cf427da10feb6.jpeg

position attention module part:用于捕获长距离的依赖,解决局部感受野的问题。

前三个分支中,前两个分支F0和F1计算位置间的相关性矩阵

b27f8327a099d4d85832af004ccbf548.png

再由位置之间的相关性矩阵

0d82eda316e36ad27c375d51f1d3df82.jpeg

指导第三条分支

5542a836b3a5b4db41a560d2327e9819.jpeg

计算得到空间注意力图,与输入进行加权和:

4087a9d008f4b0fd025378bf1b41327a.jpeg

channel attention module(CAM):捕获通道间存在的依赖关系,增强特定的语义特征表示。

与spatial attention module 类似,三个分支中,前两个分支先计算channel中不同位置的相关性矩阵,再与第三个分支相乘,得到关于channel的注意力图,最终与输入进行加权和:

ea0eb93bdac4e54f2eefb7ddd6bcc3ea.jpeg

最后将空间注意力图与通道注意力图进行元素加操作得到空间-通道注意力特征图。

四、注意力loss

通过设置不同的loss,来引导模型在训练中,自我调整需要注意的信息,对于某一个尺寸的注意力机制模型图如下:

62e3e146fe9ac0c821893526f3a652d7.jpeg

F一方面输入到注意力模型中产生注意力特征图,另一方面进入一个unet结构中,两个encode部分生产第一个注意力loss:

788ee7288405a4d4c88e901da2157ee9.jpeg

两个unet结构输出的结构生成第二个注意力loss:

a01bdc16edebae3afcc43f5edbd9d16a.jpeg

分割loss为:

35325ee4cb09f997c3e5c5d7370cce08.jpeg

最终的总loss为:

22748a2b3f60dd574e4f5c7a5af581fe.png
 
 

好消息!

小白学视觉知识星球

开始面向外开放啦👇👇👇

 
 

3417be5ef2931a934267f2df34058bf5.jpeg

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
  • 0
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值