近期必读的7篇【医学图像分割】相关论文和代码(CVPR、AAAI)

【导读】最近小编推出CVPR2019图卷积网络相关论文、CVPR2019生成对抗网络相关视觉论文、【可解释性】相关论文和代码,CVPR视觉目标跟踪相关论文,CVPR视觉问答相关论文,反响热烈。最近,医学图像分割这一新分割应用领域也广泛受关注,出现了好多新方法、新数据集,今天小编专门整理最新七篇医学图像分割相关应用论文—对抗攻击、跨模态域自适应、迁移学习、one-shot、GAN等。

在这里插入图片描述

1、Non-Local Context Encoder: Robust Biomedical Image Segmentation against Adversarial Attacks(非局部上下文编码器: 针对对抗攻击的鲁棒生物医学图像分割)

AAAI ’19 Oral

作者:Xiang He, Sibei Yang, Guanbin Li?, Haofeng Li, Huiyou Chang, Yizhou Yu

摘要:基于深度卷积神经网络(CNNs)的生物医学图像分割技术近年来受到广泛关注。然而,它对对抗性样本的脆弱性不容忽视。本文首次发现所有基于CNN的先进生物医学图像分割模型都对对抗扰动敏感。这限制了这些方法在安全关键的生物医学领域的应用。在本文中,我们发现生物医学图像中的全局空间依赖关系和全局上下文信息可以被用来抵御对抗攻击。为此,提出了一种基于非局部上下文编码(NLCE)的短时和长时程空间依赖关系建模方法,并对全局上下文进行编码,通过信道感知增强特征激活。NLCE模块增强了非局部上下文编码网络(NLCEN)的鲁棒性和准确性,NLCEN利用NLCE模块学习鲁棒性增强的金字塔特征表示,并将不同层次的信息集成在一起。在肺和皮肤病变分割数据集上的实验表明,NLCEN在抵抗对抗攻击方面优于任何其他先进的生物医学图像分割方法。此外,NLCE模块可用于提高其他基于CNN的生物医学图像分割方法的鲁棒性。

在这里插入图片描述
网址:

https://arxiv.org/abs/1904.12181v1

2、Synergistic Image and Feature Adaptation: Towards Cross-Modality Domain Adaptation for Medical Image Segmentation(协同图像与特征自适应: 面向医学图像分割的跨模态域自适应)

AAAI ’19 Oral

作者:Cheng Chen, Qi Dou, Hao Chen, Jing Qin, Pheng-Ann Heng

摘要:本文提出了一种新的无监督域自适应框架——协同图像与特征自适应(SIFA),有效地解决了domain shift问题。域自适应是近年来深度学习研究的一个重要和热点问题,其目的是解决神经网络应用于新的测试领域时性能下降的问题。我们提出的SIFA是一个优雅的学习图,它从图像和特征两个角度展示了适应性的协同融合。特别是,我们同时跨域转换图像的外观并且增强所提取的特征的域不变性来进行分割任务。在端到端学习过程中,特征编码器层由两个透视图共享,以掌握它们的共同特征。在不使用目标域的任何标注的情况下,我们的统一模型的学习是以对抗性损失为指导,从各个方面使用多个判别器。我们已经通过对心脏结构的跨模态医学图像分割这一具有挑战性的应用广泛地验证了我们的方法。实验结果表明,我们的SIFA模型能够将性能下降幅度从17.2%恢复到73.0%,并显著优于现有的最先进方法。

在这里插入图片描述
网址:

https://arxiv.org/abs/1901.08211v3

代码链接:

https://github.com/cchen-cc/SIFA

3、Data augmentation using learned transformations for one-shot medical image segmentation(利用学习变换进行数据增强,实现one-shot医学图像分割)

CVPR ’19

作者:Amy Zhao, Guha Balakrishnan, Frédo Durand, John V. Guttag, Adrian V. Dalca

摘要:图像分割是医学应用中的一个重要课题。基于卷积神经网络的方法获得了最先进的精度;然而,它们通常依赖于带有大型标记数据集的监督训练。医学图像的标注需要大量的专业知识和时间,而典型的手工调优的数据增强方法无法捕捉这些图像中的复杂变化。我们提出了一种自动数据增强方法来合成标记医学图像。我们在分割磁共振成像(MRI)脑扫描的任务中展示了我们的方法。我们的方法只需要一次分段扫描,并利用半监督方法中的其他未标记扫描。我们从图像中学习转换模型,并使用该模型和带标记的示例来合成其他带标记的示例。每个转换都由空间变形场和强度变化组成,从而能够综合复杂的效果,如解剖学和图像采集过程的变化。我们展示了使用这些新示例训练有监督的分割器,对于one-shot生物医学图像分割的最先进方法有着显着的改进。我们的代码可以在https://github.com/xamyzhao/brainstorm上找到。

在这里插入图片描述
网址:

https://arxiv.org/abs/1902.09383

代码链接:

https://github.com/xamyzhao/brainstorm

4、Autofocus Layer for Semantic Segmentation(用于语义分割的自动聚焦层)

作者:Yao Qin, Konstantinos Kamnitsas, Siddharth Ancha, Jay Nanavati, Garrison Cottrell, Antonio Criminisi, Aditya Nori

摘要:为了提高神经网络的多尺度处理能力,提出了一种自聚焦卷积层用于语义分割。自动聚焦层根据处理过的上下文自适应地改变有效接受域的大小,以生成更强大的特征。这是通过将具有不同膨胀率的多个卷积层并行化来实现的,并结合一种注意力机制,该机制学会将注意力集中在由上下文驱动的最优尺度上。通过共享并行卷积的权值,我们使网络的规模不变,只增加了少量的参数。提出的自动聚焦层可以很容易地集成到现有网络中,提高模型的表示能力。我们在骨盆CT多器官分割和MRI脑肿瘤分割的挑战性任务中评估了我们的模型,并取得了非常有前景的性能。

在这里插入图片描述
网址:

https://arxiv.org/abs/1805.08403v3

5、Few-shot 3D Multi-modal Medical Image Segmentation using Generative Adversarial Learning(利用生成式对抗学习进行Few-shot三维多模态医学图像分割)

作者:Arnab Kumar Mondal, Jose Dolz, Christian Desrosiers

摘要:我们解决了在极少数标记示例可供训练的情况下分割三维多模态医学图像的问题。利用最近成功的对抗学习进行半监督分割,我们提出了一种基于生成对抗网络(GAN)的新方法来训练具有标记和未标记图像的分割模型。该方法通过学习识别生成网络中获得的真假patch,来防止过拟合。我们的工作扩展了目前的专注于二维单模态图像对抗性学习方法到更具挑战性的三维体多模态。针对iSEG-2017和MRBrainS 2013数据集的脑MRI分割问题,对该方法进行了评估。与在完全监督下训练的最先进的分割网络相比,性能有了显著的提高。此外,我们的工作提供了对半监督分割的不同GAN架构的综合分析,显示了最近的技术,如特征匹配,以产生比传统对抗训练方法更高的性能。我们的代码可以通过https://github.com/arnab39/FewShot_GAN-Unet3D公开获取。
在这里插入图片描述

网址:

https://arxiv.org/abs/1810.12241v1

代码链接:

https://github.com/arnab39/FewShot_GAN-Unet3D

6、nnU-Net: Breaking the Spell on Successful Medical Image Segmentation(nnU-Net)

作者:Fabian Isensee, Jens Petersen, Simon A. A. Kohl, Paul F. Jäger, Klaus H. Maier-Hein

摘要:由于数据集的多样性,语义分割是医学图像分析中的一个热门子领域,每年都有大量的新方法被提出。然而,这个不断增长的系列方法变得越来越难以理解。同时,许多提出的方法不能推广到实验之外,从而阻碍了在新数据集上开发分割算法的过程。这里我们介绍nnU-Net(“no-new-Net”),这个框架可以自适应任何给定的新数据集。虽然到目前为止这个过程完全由人为驱动,但我们首先尝试根据给定数据集的属性自动执行必要的调整,例如预处理,精确的patch大小,batch大小和推理设置。值得注意的是,nnU-Net去掉了通常在文献中提出的架构上的附加功能,只依赖于嵌入在健壮的训练方案中的简单U-Net架构。开箱即用,nnU-Net在六个完善的细分挑战中实现了最先进的性能。源代码可从https://github.com/MIC-DKFZ/nnunet获得。

在这里插入图片描述
网址:

https://arxiv.org/abs/1904.08128v1

代码链接:

https://github.com/MIC-DKFZ/nnunet

7、PnP-AdaNet: Plug-and-Play Adversarial Domain Adaptation Network with a Benchmark at Cross-modality Cardiac Segmentation(PnP-AdaNet:即插即用的对抗性域自适应网络,用于跨模态心脏分割的基准)

作者:Qi Dou, Cheng Ouyang, Cheng Chen, Hao Chen, Ben Glocker, Xiahai Zhuang, Pheng-Ann Heng

摘要:深卷积网络在各种医学图像计算任务中表现出了最先进的性能。利用来自不同模式的图像进行相同的分析任务具有临床益处。然而,深度模型对不同分布的测试数据的泛化能力仍然是一个主要的挑战。在本文中,我们提出了PnPAdaNet(即插即用的对抗域自适应网络)来适应不同医学图像模式(如MRI和CT)之间的分割网络。我们建议以一种无监督的方式对齐源域和目标域的特征空间,从而解决重要的domain shift问题。具体地,域自适应模块灵活地替换源网络的早期编码器层,并且在域之间共享更高层。通过对抗性学习,我们构建了两个判别器,其输入分别是多级特征和预测分割掩码。我们在非配对MRI和CT中的心脏结构分割任务验证了我们的域自适应方法。综合消融研究的实验结果证明了我们提出的PnP-AdaNet的优异功效。此外,我们为心脏数据集引入了一个新的基准,用于无监督跨模态域自适应的任务。我们将公开我们的代码和数据集,旨在促进医学成像这一具有挑战性但重要的研究课题的未来研究。

在这里插入图片描述
网址:

https://arxiv.org/abs/1812.07907v1

代码链接:

https://github.com/carrenD/Medical-Cross-Modality-Domain-Adaptation

-END-

  • 33
    点赞
  • 364
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
医学图像分割是计算机视觉(Computer Vision, CV)在医学领域的一个关键应用,尤其是在医学成像如CT、MRI、X光等数据中,它的目标是将图像分解为多个有意义的部分,比如区分正常组织和病变区域。CVPR(Conference on Computer Vision and Pattern Recognition)是一个国际领先的计算机视觉会议,每年都会吸引众多研究者分享最新的研究成果,包括医学图像分割技术。 在CVPR上,医学图像分割的研究综述通常会涵盖以下几个方面: 1. **深度学习方法**:深度学习,特别是卷积神经网络(Convolutional Neural Networks, CNNs),因其强大的表征学习能力,在医学图像分割中取得了显著进展,如U-Net、SegNet、FCN等模型。 2. **图像特征融合**:如何结合多模态(如RGB、T1、T2、FLAIR)或同模态不同时间尺度的图像信息,提高分割精度。 3. **弱监督学习和半监督学习**:针对标注数据有限的情况,研究人员探索如何利用少量或无标签的数据进行模型训练。 4. **实例分割与实例级别的语义理解**:区分并标记出图像中的每一个独立实例,这对于解剖结构的精细化分析至关重要。 5. **医学图像处理的特殊挑战**:如不均匀光照、噪声、形态变化和空间分辨率差异等问题的处理策略。 6. **算法评估与基准**:如何设计公正的评估指标(如Dice系数、Jaccard指数、Hausdorff距离等)以及使用公认的公共数据集(如ISBI、MICCAI等)进行比较。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值