ScribFormer: Transformer Makes CNN Work Better for Scribble-based Medical Image Segmentation

“ScribFormer: Transformer让卷积神经网络在基于涂鸦的医学图像分割任务中表现更佳”

最近的涂鸦监督分割方法通常采用具有编码器-解码器架构的卷积神经网络(CNN)框架。尽管该框架有多个优点,但通常只能通过局部感受野捕捉卷积层的小范围特征依赖性,这使得难以从涂鸦注释提供的有限信息中学习全局形状信息。为了解决这个问题,本文提出了一种新的CNN-Transformer混合解决方案,用于涂鸦监督的医学图像分割,称为ScribFormer。所提出的ScribFormer模型具有三分支结构,即CNN分支、Transformer分支和注意力引导的类激活图(ACAM)分支的混合。具体而言,CNN分支与Transformer分支协同工作,将从CNN学到的局部特征与Transformer获得的全局表示融合,可以有效克服现有涂鸦监督分割方法的局限性。此外,ACAM分支有助于统一浅层卷积特征和深层卷积特征,进一步提高模型的性能。在两个公共数据集和一个私有数据集上进行的大量实验证明,我们的ScribFormer在涂鸦监督分割方法方面表现优越,并且甚至比完全监督的分割方法取得更好的结果。代码已发布在 https://github.com/HUANGLIZI/ScribFormer。

在这里插入图片描述
图1. 不同方法在分割结果上的性能比较:(a) 输入图像、掩膜和涂鸦注释,(b) 基于CNN的完全监督方法(UNet++ [1]),© 基于CNN的涂鸦监督方法(UNet++),以及 (d) 我们提出的ScribFormer。

在这里插入图片描述
图2. 我们提出的ScribFormer的概述。该框架包括混合的CNN-Transformer编码器、CNN解码器、Transformer解码器和注意力引导的类激活图(ACAM)分支。CNN预测y_CNN和Transformer预测y_Trans分别与涂鸦注释和动态混合的伪标签进行比较。此外,ACAM分支将多尺度的ACAM与ACAM一致性进行比较。

在这里插入图片描述
图3. FCU(特征耦合单元)的示意图。由于CNN和Transformer的特征维度不一致,卷积块的特征图和Transformer块的补丁嵌入在通道和空间对齐之后在下采样和上采样块中进行融合。

在这里插入图片描述
图4. 注意力引导的类激活图(ACAM)分支的示意图。

在这里插入图片描述
图5. ScribFormer与其他ACDC和MSCMRseg数据集上最先进方法的定性比较。下标F和S分别表示使用完全标注掩膜或涂鸦注释训练的分割模型。

  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王知为

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值