RAUNet: Residual Attention U-Net for Semantic Segmentation of Cataract Surgical Instruments 论文阅读笔记

论文地址:https://arxiv.org/abs/1909.10360  

该论文已被ICONIP2019会议接收。

代码地址:https://github.com/nizhenliang/RAUNet

Introduction

论文提出一个新的网络结构来分割白内障手术器械。该网络采用encoder-decoder结构,并设计了一个新颖的注意力模型来改善网络的特征表示。该工作还使用了CEL-Dice来解决样本不平衡问题。经过测试,该网络在白内障手术器械数据集Cata7上取得了state-of-the-art的性能。

Motivation

手术中往往光照很强,导致手术器械表面发生镜面反射,导致网络难以定位到手术器械。注意力模块被设计来使网络关注到目标区域并强调目标物体。这样可以很好的解决镜面反射问题。同样,这个注意力模块也可以被应用于其他需要强调区域的任务中。

The Architecture of Residual Attention U-Net

该网络采用encoder-decoder结构来获得高分辨率的mask。与之前的工作不同,作者采用ResNet34 作为编码器来提取语义特征。残差网络有助于减小模型的大小并且增加推理速度。并且作者将ResNet34在ImageNet上进行了预训练,这有助于提升网络的性能。解码器由增强注意力模块 (Augmented Attention Module, AAM) 和反转卷积 (Transposed Convolution)组成。网络输出的大小和原始图像相同。

Augmented Attention Module

解码器通过上采样恢复位置细节。 但是,上采样会导致边缘模糊和位置细节丢失。 现有的一些工作采用跳过连接将低阶特征图与高阶特征图连接在一起,这有助于补充职位详细信息。 但这是一种naive的方法。 由于低阶特征图中缺少语义信息,因此它包含许多无用的背景信息。 此信息可能会干扰目标对象的分割。 为了解决这个问题,增强注意力模块旨在捕获高级语义信息并强调目标特征。

每个通道对应一个特定的语义响应。 手术器械和人体组织通常与不同的通道有关。 因此,增强注意力模块对语义依赖性进行建模以强调目标渠道。 它捕获高级特征图中的语义信息,并捕获低级特征图中的全局上下文,以对语义依赖性进行编码。 高阶特征图中包含丰富的语义信息,可用于指导低阶特征图选择重要的位置信息。 此外,低阶特征图的全局上下文对不同通道之间的语义关系进行编码,从而有助于过滤干扰信息。 通过有效地使用这些信息,增强注意力模块可以强调目标区域并改善特征表示。其具体的结构如上图所示。其捕捉全局上下文的过程如下公式所示。

作者采用global average pooling 来捕捉全局上下文,编码通道间的语义依赖关系。

Loss Function

作者使用了一个名为Cross Entropy Log Dice (CEL-Dice) 的组合loss来训练他们的网络,该loss结合了交叉熵损失函数和Dice loss。交叉熵损失可以有效的解决样本不平衡问题。这样既可以利用Dice loss来解决样本不平衡问题,又拥有交叉熵损失的稳定性。其所下式所示:

其中H代表交叉熵损失,D代表Dice loss。 这两个loss分别如下式所示:

 Dice loss

Results

作者首先对AAM进行了测试,由下表可知,该模块可以提升分割精度并且只增加了很少的参数,有助于节约内存。

 其次,作者对网络整体性能进行了评估,如下表所示,RAUNet在同一数据集上取得了最先进的性能。

可视化图像如下图所示:

 除此以为,作者还对CEL-Dice的性能进行了测试,如下图所示:

注:若该博客对您的研究工作有帮助,请引用该文章!谢谢!

Z. Ni, G. Bian, X. Zhou, Z. Hou, X. Xie,  C. Wang, Y. Zhou, R. Li and Z. Li, “RAUNet: Residual Attention U-Net for Semantic Segmentation of Cataract Surgical Instruments,” The 26th International Conference on Neural Information Processing (ICONIP), 2019. (in press)

@inproceedings{ni2019raunet,
  title={RAUNet: Residual attention U-Net for semantic segmentation of cataract surgical instruments},
  author={Ni, Zhen-Liang and Bian, Gui-Bin and Zhou, Xiao-Hu and Hou, Zeng-Guang and Xie, Xiao-Liang and Wang, Chen and Zhou, Yan-Jie and Li, Rui-Qi and Li, Zhen},
  booktitle={International Conference on Neural Information Processing},
  pages={139--149},
  year={2019},
  organization={Springer}
}
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值