《ISBI 2021》Robust White Matter Hyperintensity Segmentation On Unseen Domain

Paper:https://ieeexplore.ieee.org/document/9434034
数据 + 代码:https://github.com/xingchenzhao/MixDANN
创新点:
目前网络的训练数据和测试数据需要遵循相同的分布,而目前可能所获得的医学数据很多情况都是来自不同的设备或者医院等。作者认为网络应该学习到domain invariance,从而在数据分布不同的情况下,模型具备较好的表现。应该属于 Domain Generalization。

数据集:

  1. a multi-site public MICCAI WMH Challenge Dataset [1] from three sites (Amsterdam (A), Singapore (S), Utrecht (U)
  2. 作者自己构建的数据集

算法:
网络整体框架:DANN(Domain Adversarial Neural Network)+ MixUp嵌入
MixDANN with Amsterdam and Singapore sources

  1. DANN:
    包括 Feature Extraction + Domain Generalization + Task-specific Network, 简单理解为UNet为backbone,加入了判别器进行domain invariance的判别。Feature Extraction为UNet的下采样部分,Task-specific Network为UNet的上采样部分。整体loss function定义,作者认为所定义的loss可以根据H-divergence来进行解释 :
  • 最小化DANN的分割 loss

  • 最大化Discriminator的 loss,这是由于Discriminator被设计用来对domain invariance进行判别,所以需要Discriminator不能判别出对应的domain,也就是需要max loss。
    在这里插入图片描述LT 作者所用为Dice Similarity Coefficient Loss

  • Domain Generalization:应该是作者的核心创新点,前提是domain information是在网络刚开始的卷积层就可以被显著感知到,再借鉴于GAN的对抗生成的思想,引入判别domain invariance的Discriminator作为约束。
    具体操作来说通过在UNet第二个下采样模块添加另一条路径进行全连接层(3层)(Discriminator),Discriminator 的loss function为cross entropy,定义为:
    在这里插入图片描述

  • Discriminator利用Gradient Reversal Layer的方式进行梯度传导,简单理解为向负的梯度方向优化就是最大化目标函数

  1. MixUp:
    数据增强操作,作者认为MixUp的操作也引入了domain invariance
  • 举例来说是data augmentation包括类似添加noise 的操作,而训练带有noise的样本的目的是使得model去除noise的影响,作者认为这也是domain invariance的一部分
  • 具体操作文章表述如下:
    在这里插入图片描述此外,对于对应数据的标签也要做相同的mixup。
    个人认为,label方面有两个label,一个是分割所用的正常label,以及domain invariance所用的mixup的label
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值