3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation论文翻译笔记

本文介绍了3D U-Net,这是一种能从稀疏标注的三维体积图像中学习密集分割的网络。它扩展了2D U-Net结构,适用于3D操作,并在生物医学领域复杂结构的分割任务中表现出色。网络可以从少量标注的二维切片中学习,并应用于半自动和全自动分割场景。实验结果显示,即使在少量注释的情况下,也能实现高精度的三维分割。
摘要由CSDN通过智能技术生成


前言

3D U-Net论文翻译
3D-U-Net:从稀疏标注学习密集体分割


一、论文翻译

摘要:本文介绍了一种从稀疏标注的体积图像中学习的体分割网络。我们概述了这种方法的两个有吸引力的用例:(1)在半自动设置中,用户注释要分割的卷中的一些切片。该网络从这些稀疏注释中学习,并提供密集的三维分割。(2) 在全自动设置中,我们假设存在一个具有代表性的、稀疏注释的训练集。在这个数据集上训练,网络密集地分割新的体积图像。该网络扩展了Ronneberger等人的u-net结构,将所有的2D操作替换为3D操作。该实现执行动态弹性变形以在训练过程中实现有效的数据扩充。它是从头开始端到端训练的,即不需要预先训练的网络。我们在一个复杂的、高度可变的三维结构非洲爪蟾肾脏上测试了该方法的性能,并在两个用例中都取得了良好的结果。
关键词:卷积神经网络,三维,生物医学体积图像分割,爪蟾肾,半自动,全自动,稀疏标注

1 介绍

  在生物医学数据分析中,体积数据非常丰富。由于计算机屏幕上只能显示二维切片,因此用分割标签标注此类数据会带来困难。因此,以逐片的方式对大体积进行注释是非常乏味的。因为相邻的切片显示几乎相同的信息,所以它的效率也很低。特别是对于需要大量注释数据的基于学习的方法,三维体的完整注释并不是创建具有良好通用性的大型和丰富的训练数据集的有效方法。
在这里插入图片描述

  在本文中,我们提出了一种深度网络,它学习生成密集的体积分割,但只需要一些带注释的二维切片进行训练。如图1所示,该网络可以以两种不同的方式使用:第一个应用案例仅针对稀疏注释数据集的加密;第二个应用案例从多个稀疏注释数据集学习以推广到新数据。这两个案例都非常相关。
  该网络基于先前的u-net架构,由收缩编码器部分分析整个图像和连续扩展解码器部分产生全分辨率分割[11]。虽然u-net是一个完全二维的体系结构,但本文提出的网络以三维体作为输入,并对其进行相应的三维操作,特别是三维卷积、三维最大池和三维上卷积层。此外,我们还避免了网络体系结构中的瓶颈[13],并使用批处理规范化[4]来加快收敛速度。
  在许多生物医学应用中

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值