概述
针对标准UNet这种欠完备的网络架构,提出了Ki-Net网络结构,这种网络结构通过较小的感受野能够检测到较为细微的结构。作者还将这种结构与UNet相结合起来,提出了Ki-UNet网络,在性能上得到了提升。
Motivation
尽管UNet网络是近年来医学分割领域非常流行的网络,但是,通过研究发现,UNet网络在检测细微的组织结构时性能很差。这是由Unet这种欠完备的网络中较大的感受野造成的。随着网络深度的增加,感受野也就越来越大,使得网络能够更加关注高级的语义信息,但是,细小的组织结构是需要较小的感受野来获得的。即使UNet有跳连的结构,它的最小的感受野还是限制于第一层的网络。于是作者提出了over-complete的网络架构Ki-Net。
Contribution
- 探索了过完备的网络结构Ki-Net
- 将欠完备与过完备深度网络结合起来提出了新的网络结构KiU-Net,比Unet能够更好地捕获细节并分割
- 在分割领域取得了更快的收敛速度和更好的性能。
Proposed Method
Over-complete representations
在传统的编码器-解码器架构的网络中,感受野的大小会随着网络深度的增加而增加。这主要是由两个原因造成的:
- 每一个卷积核都是从周围的窗口中获得信息。
- 在每一个卷积层之后都会跟一个最大池化。
逐渐增加的感受野对卷积神经网络学习高级语义信息起着关键作用,但是却降低学习一些细节的能力,使得网络在分割边缘等细节时不能够做出精确的预测。针对这一问题,作者提出了Ki-Net网络架构。在编码器部分,每一个卷积层后面都会紧跟一个上采样;在解码器部分,每一个卷积层后面都会紧跟一个下采样,使得尺寸与输入图片一致。
KiU-Net
将Ki-Net与Unet结合起来,形成了KiU-Net。整体结构如下图所示
输入的图片同时经过两个分支,一个分支是UNet,一个分支是Ki-Net。两个分支都是编码器-解码器的架构,编码解码部分都是三个卷积块。
Ki-Net编码器部分的卷积块包含卷积层、双线性插值、ReLu。解码器部分的卷积块包含卷积层和最大池化,与Unet类似,在Ki-Net中采用了跳连的结构。
Unet部分就是标准的Unet架构,只是层数减少了。
cross residual fusion block:
为了更好地将每一个卷积块的特征结合起来,作者提出了一个cross residual fusion block。
两个分支相同层级的特征图同时作为输入,然后获得两个输出作为两个分支下一层级的输入。
将UNet分支的特征图通过卷积层、ReLu之后与Ki-Net的特征图相加作为Ki-Net下一层级的输入。同样的
将Ki-Net分支的特征图通过卷积层、ReLu之后与UNet的特征图相加作为UNet下一层级的输入。
最后将两个分支的特征图相加之后通过一个1x1的卷积获得输出的分割图像。
部分实验结果