「Medical Image Analysis」Note on Deep Attentional Features

QQ Group: 428014259
Sina Weibo:小锋子Shawn
Tencent E-mail:403568338@qq.com
http://blog.csdn.net/dgyuanshaofeng/article/details/83051697

提出深度注意力特征模块(deep attentional feature modules),充分利用不同层的编码信息,也即各层的特征是“通畅的”,解决TRUS图像前列腺分割。

前列腺分割网络如图1所示。TRUS图像通过卷积网络ConvNet得到一系列空间大小不一的特征图,如 f m 1 , f m 2 , f m 3 , f m 4 , f m 5 fm_1, fm_2, fm_3, fm_4, fm_5 fm1,fm2,fm3,fm4,fm5。放弃第一个水平的特征图, f m 2 , f m 3 , f m 4 , f m 5 fm_2, fm_3, fm_4, fm_5 fm2,fm3,fm4,fm5经过单层卷积编码得到特征 S L F 2 , S L F 3 , S L F 4 , S L F 5 SLF_2, SLF_3, SLF_4, SLF_5 SLF2,SLF3,SLF4,SLF5,然后单层特征 S L F i SLF_i SLFi级联起来,经过卷积编码,得到特征 M L F MLF MLF。深度注意力特征模块DAF接收 M L F MLF MLF和对应的 S L F SLF SLF作为输入,输出注意力特征,利用深度监督机制 D S M DSM DSM监督各层学习并输出多层分割结果,最终通过平均(概率)获得最后分割结果。
在这里插入图片描述

图 1:算法框图

深度注意力特征模块如图2所示,计算过程很清楚。
在这里插入图片描述

图 2:DAF模块

量化结果如图3所示。比较对象是复杂的BCRNN和两种经典全卷积网络FCN、U-Net,说明所提出方法的性能十分优越。值得细想的是,BCRNN算法居然比不过U-Net。另外,所提出方法使用了ResNeXt-101作为骨干网络,与FCN和U-Net比较,当然性能自然不会差,甚至去掉DAF模块,性能还不一定比FCN和U-Net差。所以比较的公平性和证明模块的有效性,在这里就很不明白了。另外,已经有MSRA的学者验证过,采用牛逼的骨干网络,其他乱七八糟的骚操作都是多余的,可以看看文献[2],残差网络加反卷积,轻松虐堆叠沙漏网络
在这里插入图片描述

[1] Deep Attentional Features for Prostate Segmentation in Ultrasound MICCAI 2018 [paper]
[2] Simple Baselines for Human Pose Estimation and Tracking ECCV 2018 [paper]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值