unet论文_nnUnet论文解析

nnUNet是一个基于2D和3D UNet的自适应框架,专注于预处理、训练、推理和后处理的优化而非复杂的网络结构。通过对比实验,nnUNet在多个分割任务上表现出色,无需手动调参。本文深入解析nnUNet的论文,探讨其在医学图像分割领域的应用和优势。
摘要由CSDN通过智能技术生成

17acbd5450ed43ed31b6053b9c7bff8f.png

nnUnet虽然不是新的论文,但是这个框架效果很好。它并没有提出新的网络结构,没有抓人眼球的地方,仅依靠一些技巧,将分割任务进行了大统一,并在很多任务上得到了非常好的成绩上,可以看出作者的功底之深。

对于分割任务,从unet出来之后的几年里,其实在网络结构上已经没有多少的突破了,结构修改越多,反而越容易过拟合。因此作者认为更多的提升其实在于理解数据,并针对医学数据采用适当的预处理和训练方法。

本文将通过对nnUnet的论文进行研读,提取出其中提到的训练方法和技巧,分享给大家。

摘要:

提出一种鲁棒的基于2D UNet和3D UNet的自适应框架nnUMet。作者在各种任务上拿这个框架和目前的STOA方法进行了比较,且该方法不需要手动调参。最终nnUNet得到了最高的平均dice。

介绍:

提出问题:当前的医学图像分割被CNN的方法主导,但是在不同的任务上需要不同的结构和不同的调参策略才达到了各自任务的最佳,这些在某个任务上拿到第一的方法,在其他任务上却不行。

The Medical Segmentation Decathlon计划通过这种方式解决这个问题:希望参赛者设计一种算法,在10种数据集上进行测试,都能够达到很好的效果,而算法不能够针对某种数据集进行人为的调整,

  • 3
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
UNet是一种用于图像分割的卷积神经网络结构,由Ronneberger等人于2015年提出,主要用于医学图像处理中的分割任务。它的结构类似于自编码器,但是在编码器和解码器之间添加了跨层连接,使得网络可以更好地捕捉图像的上下文信息。下面我将为您详细介绍UNet的结构和Python实现。 ## UNet结构 UNet的结构如下图所示: ![unet_architecture](https://cdn.jsdelivr.net/gh/tsy19900929/blog-pic/pic/unet_architecture.png) 可以看到,UNet的结构包括编码器和解码器两部分。 编码器由多个卷积层和池化层组成,用于提取图像的特征信息。每个卷积层都包含一个卷积核和一个激活函数,用于学习特征映射。每个池化层则用于减小特征图的大小,同时增加特征的感受野,以便更好地捕捉图像的上下文信息。 解码器由多个反卷积层和跨层连接组成,用于将编码器学习到的特征信息转化为像素级别的预测结果。每个反卷积层用于将特征图的大小恢复到原始图像的大小,同时保留特征信息。跨层连接则将编码器中相应层的特征图与解码器中相应层的特征图进行连接,以便恢复更细节的信息。最后一层使用sigmoid激活函数将输出转化为0到1之间的概率值,表示每个像素属于前景或背景的概率。 ## Python实现 下面我们使用Python和Keras来实现一个简单的UNet模型。首先需要导入相关的库: ```python from keras.models import Model from keras.layers import Input, concatenate, Conv2D, MaxPooling2D, Conv2DTranspose from keras.optimizers import Adam ``` 接着我们定义编码器和解码器中使用的卷积和反卷积层: ```python def conv2d_block(inputs, filters, kernel_size=(3, 3), activation='relu', padding='same', kernel_initializer='he_normal'): conv = Conv2D(filters, kernel_size, activation=activation, padding=padding, kernel_initializer=kernel_initializer)(inputs) conv = Conv2D(filters, kernel_size, activation=activation, padding=padding, kernel_initializer=kernel_initializer)(conv) return conv def deconv2d_block(inputs, skip_features, filters, kernel_size=(3, 3), activation='relu', padding='same', kernel_initializer='he_normal'): deconv = Conv2DTranspose(filters, kernel_size, strides=(2, 2), padding=padding, kernel_initializer=kernel_initializer)(inputs) deconv = concatenate([deconv, skip_features]) deconv = conv2d_block(deconv, filters, kernel_size=kernel_size, activation=activation, padding=padding, kernel_initializer=kernel_initializer) return deconv ``` 然后我们定义UNet模型: ```python def unet(input_shape=(256, 256, 3), num_classes=1, activation='sigmoid', filters=64, kernel_size=(3, 3), pool_size=(2, 2), kernel_initializer='he_normal'): inputs = Input(input_shape) skip_features = [] # Encoder for filter_num in [filters * (2 ** i) for i in range(4)]: conv = conv2d_block(inputs, filter_num, kernel_size=kernel_size, activation=activation, padding='same', kernel_initializer=kernel_initializer) skip_features.append(conv) pool = MaxPooling2D(pool_size=pool_size)(conv) inputs = pool # Bottleneck bottleneck = conv2d_block(inputs, filters * 16, kernel_size=kernel_size, activation=activation, padding='same', kernel_initializer=kernel_initializer) # Decoder for i, filter_num in enumerate(reversed([filters * (2 ** i) for i in range(4)])): if i == 0: deconv = deconv2d_block(bottleneck, skip_features[-1], filter_num, kernel_size=kernel_size, activation=activation, padding='same', kernel_initializer=kernel_initializer) else: deconv = deconv2d_block(deconv, skip_features[-i-1], filter_num, kernel_size=kernel_size, activation=activation, padding='same', kernel_initializer=kernel_initializer) outputs = Conv2D(num_classes, (1, 1), activation=activation)(deconv) model = Model(inputs=[inputs], outputs=[outputs]) return model ``` 在这个模型中,我们首先定义了编码器和解码器中使用的卷积和反卷积层。然后我们定义了UNet模型,包括输入层、编码器、解码器和输出层。其中编码器和解码器使用了上面定义的卷积和反卷积层。 最后我们使用Adam优化器和二分类交叉熵损失函数来编译模型: ```python model = unet() model.compile(optimizer=Adam(lr=1e-4), loss='binary_crossentropy', metrics=['accuracy']) ``` 这样我们就完成了一个简单的UNet模型的实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值