【论文阅读笔记】Multimodal Transformer of Incomplete MRI Data for Brain Tumor Segmentation

Ting H, Liu M. Multimodal Transformer of Incomplete MRI Data for Brain Tumor Segmentation[J]. IEEE Journal of Biomedical and Health Informatics, 2023. 【代码开源】

论文概述

本文提出了一种基于多模态Transformer网络的不完全多模态MRI数据的脑肿瘤分割方法。该网络基于U-Net体系结构,由模态专用编码器、多模态Transformer和多模态共享权重解码器组成。首先,构建一个卷积编码器来提取每个模态的具体特征。然后,提出一种多模态Transformer来建模多模态特征的相关性,并学习缺失模态的特征。最后,提出一种多模态共享权重解码器,将多模态和多级特征与空间和通道自注意模块逐步聚合,用于脑肿瘤分割。

网络结构

image-20231129102118463
  • Modality specific feature learning

    这一步类似MMFormer,每个模态单独编码,然后使用类似dropout机制随机丢弃一些模态来模拟缺失模态。网上有很多关于MMFormer的解读,不再赘述。与MMFormer不同在于,在每个模态的每个特征提取层级都进行了特征拼接和dropout。具体如下:文中定义 S P m , k S P_{m, k} SPm,k为编码器从第 m m m个模态中提取的第 k k k个级别特征,其中 m ∈ { 1 , 2 , 3 , 4 } m \in\{1,2,3,4\} m{1,2,3,4},对应MRI中的四个模态 {  Flair  , T 1 , T 2 , T 1 c } \{\text { Flair }, T 1, T 2, T 1 c\} { Flair ,T1,T2,T1c},进行对应特征拼接后得到四种模态在各个层级的特征拼接: S P k = [ S P 1 , k , S P 2 , k , S P 3 , k , S P 4 , k ] S P_{k}=\left[S P_{1, k}, S P_{2, k}, S P_{3, k}, S P_{4, k}\right] SPk=[SP1,k,SP2,k,SP3,k,SP4,k],然后进行dropout: S P k = δ ⊙ S P k S P_{k}=\delta \odot S P_{k} SPk=δSPk

    image-20231129102546823

  • Multimodal transformer:多种MRI模式的强度分布和潜在特征具有很强的相关性。因此,本文利用现有模式的latent特征加权组合来近似缺失模式的latent特征。该多模态transformer由卷积层、缺失编码层、基于自注意的transformer层和缺失-完全互补学习策略组成。

image-20231129102849685

使用上一步中提到的 S P 4 SP_4 SP4进行初始化 S P k ′ = Conv ⁡ { δ ⊙ S P 4 } S P_{k}^{\prime}=\operatorname{Conv}\left\{\delta \odot S P_{4}\right\} SPk=Conv{δSP4},使用dropout随机产生缺失模态后过卷积。本文使用一种类似原始transformer中位置编码的模式来进行缺失模态指示编码missing coding: E M C ( γ , 2 i ) = sin ⁡ ( γ / 100 0 2 i / d ) E M C ( γ , 2 i + 1 ) = cos ⁡ ( γ / 100 0 2 i / d ) \begin{aligned} \mathrm{E}_{M C}(\gamma, 2 i) & =\sin \left(\gamma / 1000^{2 i / d}\right) \\ \mathrm{E}_{M C}(\gamma, 2 i+1) & =\cos \left(\gamma / 1000^{2 i / d}\right) \end{aligned} EMC(γ,2i)EMC(γ,2i+1)=sin(γ/10002i/d)=cos(γ/10002i/d)

将缺失模态指示编码(类似于原始transfomer位置彪马)与 S P k ′ S P_{k}^{\prime} SPk叠加作为多模态transfomer输入 S P k ′ = S P k ′ + E M C S P_{k}^{\prime}=S P_{k}^{\prime}+\mathbf{E}_{M C} SPk=SPk+EMC这一步有点巧妙

为了从完整模态中更准确地学习缺失模态的特征,提出了缺失-完全互补学习策略,该策略由两个对称的网络流组成,用于完整模式和缺失模式的脑肿瘤分割,使用MSE损失引导 缺失模态分支的分割预测接近完整模态。

  • Multimodal decoder:多模态共享权解码器采用对称结构设计,具有反卷积和跳跃连接,逐步结合编码器和transfomer的多模态和多层特征,在原始图像空间中生成分割mask。考虑到计算成本,经过多模态transformer的特征只是 S P 4 SP_4 SP4。训练过程中使用MSE损失,用全模态分支监督缺失模态分支。

    image-20231130091311286

  • 数据集和硬件

    BraTS2018,2019,2020,RTX 3090*1

  • 性能比较:文中针对三个数据集分别对比了不同的算法,这里只列出一个表,感兴趣请查看原文。

    image-20231130092246407

  • 方法局限性

    虽然多模态transfomer可以在一定程度上补偿缺失的特征,但分割性能仍然受到可用模态信息的影响。此外,网络使用完整的模态数据进行训练,以学习缺失模态的特征。在医院的真实不完全数据集中,可以选择具有完全模态的数据集子集进行训练,而选择具有完全模式的数据集子集进行测试。

  • 22
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[2\]:论文名称:Improving Multimodal Named Entity Recognition via Entity Span Detection with Unified Multimodal Transformer 论文作者:Jianfei Yu, Jing Jiang, Li Yang, Rui Xia 论文地址:2020.acl-main.306 https://www.aclweb.org/anthology/2020.acl-main.306/ 论文代码:UMT https://github.com/jefferyYu/UMT 论文摘要: 根据引用\[2\]提供的信息,multimodal transformer的代码可以在GitHub上找到,代码的链接是https://github.com/jefferyYu/UMT。这个代码是用于实现论文《Improving Multimodal Named Entity Recognition via Entity Span Detection with Unified Multimodal Transformer》中提出的方法的。 #### 引用[.reference_title] - *1* *3* [[深度学习论文笔记] TransBTS: Multimodal Brain Tumor Segmentation Using Transformer 基于Transformer的...](https://blog.csdn.net/weixin_49627776/article/details/115449591)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [通过统一多模态Transformer(UMT)的实体扫描检测(ESD)来改进多模态命名实体识别(MNER)](https://blog.csdn.net/qq_43703681/article/details/113748435)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值