论文地址:U-Net: Convolutional Networks for Biomedical Image Segmentation
论文地址:3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation
上图为U-Net的网络结构
整个结构很容易理解,下采用使用2*2的maxPooling,上采用使用2*2的deconv
其他的每个卷积都使用3*3不使用padding的卷积核,因此特征图会越来越小,每层增加一倍通道数
shortcut将同层的左边特征图直接合并到右图特征图中,直接将多通道拼合在一起,因为图像尺寸不同,所以需要crop,源码中使用的就是从中心裁剪,去掉多余的周围部分
这是3D U-Net的方法,文章分为两部分,第一部分使用稀疏标注的样本图,进行3D U-Net训练,使标注变得密集并实现分割,随后再使用原始图像进行3D U-Net进行分割
整体网络结构和U-Net基本相同