医学图像多模分割论文列表

医学图像多模分割论文列表

MICCAI 2019

  • 3D U2-Net: A 3D Universal U-Net for Multi-domain Medical Image Segmentation
    图像种类:CT 或 MRI
    目标器官:六种含不同器官的数据集
    模型目标:不同器官的分割
    关键词:UNet、跨模态共享
    方法:在 UNet 中每一层插入一个小模块,用可分离卷积代替普通卷积操作,为每个域设置一组专有的卷积参数,达到对不同图像域数据集共享网络的目的。
    备注:

  • Accurate Esophageal Gross Tumor Volume Segmentation in PET/CT Using Two-Stream Chained 3D Deep Network Fusion
    图像种类:PET/RTCT
    目标器官:食管 GTV
    模型目标:食管肿瘤分割
    关键词:配准 + 双流 PSNN
    方法:用 PSNN 取代 UNet ,加以图像级别和特征级别两次简单的拼接融合。
    备注:Zhao, X., Li, L., et al.: Tumor co-segmentation in PET/CT using multi-modality fully convolutional neural network. Phys. Med. Biol. 64(1), 015011 (2019)
    Zhong, Z., Kim, Y., et al.: Simultaneous cosegmentation of tumors in PET-CT images using deep fully convolutional networks. Med. Phys. 46(2), 619–633 (2019)

http://xueshu.baidu.com/usercenter/paper/show?paperid=f5c13ac4bd69e1f4a8a245d7300301c9&site=xueshu_se
推荐栏有很多pet/ct 古早论文

  • Context-Aware Inductive Bias Learning for Vessel Border Detection in Multi-modal Intracoronary Imaging
    图像种类:IVUS/OCT
    目标器官:血管
    模型目标:血管边缘检测
    关键词:FCN、DC
    方法:针对两种图像给出的三类不同的边界信息设计的融合网络,在特征提取阶段分别用 resnet + skip connection 提取特征,并分别加入 GT 作为辅助损失,在特征融合阶段使用两个独立的自动编码器,并将其中一个支路作为连接两张图像信息的桥梁。
    备注:此前多模式图像中检测所有具有临床价值的血管边界方面尚无成功的报道。

  • Data Efficient Unsupervised Domain Adaptation For Cross-modality Image Segmentation
    图像种类:MRI/CT
    目标器官:心脏
    模型目标:心脏分割
    关键词:UDA、GAN
    方法:用 GAN 的思想进行两个域图像的融合和分解,从中学习共享特征空间,再在新的空间进行目标器官的分割。
    备注:深度无监督域自适应(UDA)旨在仅使用未标记的目标域数据和标记的源域数据来改善目标域上的深度神经网络模型的性能。UDA 通常假设一个基础的领域不变特征 spaceZ,可以从 DS 和 DT 投影出来,并可以用于特定任务。
    SIFA: Chen, C., Dou, Q., Chen, H., Qin, J., Heng, P.A.: Synergistic image and feature adaptation: towards cross-modality domain adaptation for medical image segmentation. arXiv preprint arXiv:1901.08211 (2019)

  • Integrating Cross-modality Hallucinated MRI with CT to Aid Mediastinal Lung Tumor Segmentation
     图像种类:MRI/CT
     目标器官:肺部
     模型目标:肺癌分割
     关键词:GAN
     方法:通过 GAN 用 CT 造伪 MRI,实现两者的对齐,将 MRI 和伪 CT 提取的特征融合进行分割。
     备注:Vanya, V.V., et al.: Multi-modal learning from unpaired images: application to multi-organ segmentation in CT and MRI. In: 2018 IEEE Winter Conference on Applications of Computer Vision, WACV 2018, Lake Tahoe, NV, USA, 12–15 March 2018, pp. 547–556 (2018)

  • Learning Cross-Modal Deep Representations for Multi-Modal MR Image Segmentation
     图像种类:MRI
     目标器官:乳腺
     模型目标:分割乳腺肿块
     关键词:FuseNet、 teacher–student networks
     方法:选择性地融合来自不同模态的有用信息并抑制各个噪声信号,将空间注意力用于多模分割,用辅助流网络生成注意力权重来矫正主网络。
     备注:1 Introduction 部分中有关于 CNN 多模融合的一段综述。

  • Learning Shape Priors for Robust Cardiac MR Segmentation from Multi-view Images
     图像种类:MRI
     目标器官:心脏
     模型目标:左心室心肌分割
     关键词:自编码器、UNet
     方法:用自编码器和多模思想提取形状先验,再在分割时与原网络进行融合。
     备注:

  • Multi-view Learning with Feature Level Fusion for Cervical Dysplasia Diagnosis
     图像种类:阴道镜检查的图像数据(醋酸图像和碘图像)
     目标器官:阴道
     模型目标:阴道疾病诊断分析
     关键词:特征级别融合
     方法:单个网络不断下采样,每层内部采用残差结构,并将不同网络的同一层级相连,越底层连接使用的卷积层越多,没有采用跨级的连接和交叉连接,网络结构较为简单。
     备注:1 Introduction 回顾了四种常见的多视图融合模型及其代表文章。

  • Pairwise Semantic Segmentation via Conjugate Fully Convolutional Network
     图像种类:CT
     目标器官:肝脏
     模型目标:肝脏肿瘤分割
     关键词:FCN、ASPP
     方法:提出了一种共轭全卷积网络(CFCN),通过将成对样本输入共同分割,以捕获丰富的上下文表示。通过增加一个单独的融合模块,在此处设置一个辅助损失,此处标签区分了两个 GT 中共有、独有部分,来达到信息共享的目的。主干网络结构是 ASPP,特征被分为浅层和深层两个简单部分进行处理和融合,在融合模块部分用通道注意力从浅层特征中自适应学习上下文信息。
     备注:

  • Unified Attentional Generative Adversarial Network for Brain Tumor Segmentation From Multimodal Unpaired Images
     图像种类:MRI
     目标器官:大脑
     模型目标:脑肿瘤分割
     关键词:非配准、注意力、GAN
     方法:用 GAN 进行模态转换获得模态之间的关联、提取共有信息。
     备注:1 Introduction 回顾了深度学习在多模分割融合和域自适应两种思路的文章。

  • Unsupervised Domain Adaptation via Disentangled Representations: Application to Cross-Modality Liver Segmentation
     图像种类:MRI/CT
     目标器官:肝脏
     模型目标:肝脏分割
     关键词:域自适应、自编码器、GAN
     方法:用 GAN将多模态图像映射到共享的内容空间和领域各异的空间,用仅含内容信息的图像进行分割,以实现跨模态分割。
     备注:

TMI 2018 及以前

  • Multimodal MR Synthesis via Modality-Invariant Latent Representation
    图像种类:MRI
    目标器官:大脑
    模型目标:图像合成
    关键词:FCN、自编码器
    方法:用 FCN 学习成对的图像模态之间的映射,在潜在空间进行融合,最后以一种或多种新的方式输出相同解剖结构的合成图像。
    备注:

  • Multi-Atlas Segmentation of MR Tumor Brain Images Using Low-Rank Based Image Recovery
    图像种类:MRI
    目标器官:大脑
    模型目标:脑瘤分割
    关键词:多图集
    方法:文章采用的是解析方法,从 MR 肿瘤脑图像中恢复了正常外观的大脑图像,再用多图集方法将正常脑图谱配准到恢复图像上进行分割。
    备注:MULTI-ATLAS segmentation (MAS) 定义

TMI 2019

  • Learning Cross-Modality Representations From Multi-Modal Images
    图像种类:MRI
    目标器官:大脑
    模型目标:跨模态表达
    关键词:自编码器
    方法:用自编码器将多模图像降维并投影到一个虚拟空间。
    备注:Z. Zhang, L. Yang, and Y. Zheng, “Translating and segmenting multimodal medical volumes with cycle- and shapeconsistency generative adversarial network,” in Proc. CVPR, Feb. 2018, pp. 9242–9251.
    K. Kamnitsas et al., “Unsupervised domain adaptation in brain lesion segmentation with adversarial networks,” in Proc. IPMI, 2017, pp. 597–609.

  • HyperDense-Net: A Hyper-Densely Connected CNN for Multi-Modal Image Segmentation
    图像种类:MRI
    目标器官:大脑
    模型目标:脑组织分割
    关键词:Densenet、跨模态连接
    方法:用 Densenet 思想对两个模态进行跨模态和跨层级连接,进行深度的特征融合。
    备注:1.A 部分总结了多模在脑分割的应用,以及 CNN 进行融合的概述。

  • 3D Auto-Context-Based Locality Adaptive Multi-Modality GANs for PET Synthesis
    图像种类:PET/MR
    目标器官:脑部
    模型目标:合成高质量 PET
    关键词:GAN、局部自适应融合
    方法:基于 3D 自动上下文的局部自适应方法多模态生成对抗网络模型(LA-GANs),参考提供解剖信息的 MRI 图像,从低剂量合成高质量的 FDG PET 图像。
    备注:

TMI 2020

  • Co-Learning Feature Fusion Maps From PET-CT Images of Lung Cancer
    图像种类:PET/CT
    目标器官:肺部
    模型目标:融合及肺肿瘤分割
    关键词:FCN
    方法:用一个类似注意力的方法,自动生成一个两个模态各个通道重要程度的融合图,将它作为加权实施在分别处理后的两个模态的特征图上,同时也用到了多尺度以及跳跃连接的方法。
    备注:1 Introduction 总结了 PET/CT 的发展应用。

MIA 2018 及以前

  • A unified framework for cross-modality multi-atlas segmentation of brain MRI
    图像种类:MRI
    目标器官:大脑
    模型目标:脑组织分割
    关键词:多图集、变分期望最大
    方法:提出了一种生成概率模型,该模型产生了一种用于同时解决从目标到目标的配准和标签融合步骤的算法。
    备注:1.1 Related Work 中介绍了 MAS 的发展历史。

MIA 2019

  • Segmenting Hippocampal Subfields from 3T MRI with Multi-modality Images
    图像种类:MRI
    目标器官:海马体
    模型目标:海马亚域分割
    关键词: 随机森林
    方法:分别提取特征,再用随机森林进行分割。
    备注:

  • 3D multi-scale FCN with random modality voxel dropout learning for Intervertebral Disc Localization and Segmentation from Multi-modality MR Images
    图像种类:MRI
    目标器官:椎间盘
    模型目标:椎间盘定位和分割
    关键词:FCN
    方法:用 FCN 进行特征提取再融合,采用了模态随机 dropout。
    备注:

  • Automatic brain labeling via multi-atlas guided fully convolutional networks
    图像种类:MRI
    目标器官:大脑
    模型目标:脑组织分割
    关键词:FCN、多图集
    方法:用 GAN 类似方法进行,再用合成数据与真实数据一起训练分割网络。
    备注:

  • Towards cross-modal organ translation and segmentation: A cycle- and shape-consistent generative adversarial network
    图像种类:CT/MRI
    目标器官:多种器官
    模型目标:合成图像并分割多种器官
    关键词:GAN、FCN
    方法:用 GAN 合成数据与真实数据一起训练分割网络。
    备注:

  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值