dice系数 交叉熵_基于Holistic卷积网络的不平衡多类分割的广义Wasserstein Dice 系数...

论文题目:Generalised Wasserstein Dice Score for Imbalanced Multi-class Segmentation using Holistic Convolutional Networks

前言

这篇论文读了2-3天才读完,真的感觉有点难,特别是涉及到公式一类的,又查了各种关于Wasserstein距离的资料,勉强能看得懂,但是这篇文章确实值得一读,因为跟随他的线索,你可能会感觉到,又发现了新大陆,你不曾知道的大陆——两个分布之间的度量。到底有多少种度量方法?哪种方法最优?最适合解决当前的问题?这些都是需要去了解的,关于这些,我会写在最后的补充里。

关于这篇文章,作者是这样说的:虽然使用mean class Dice score训练的CNNs在多类分割中获得了最先进的结果,但这种损失函数既没有利用类间关系,也没有利用多尺度信息。所以说,本文利用Wasserstein 距离的侧重点是为了联系多类分割中类间的关系,利用这种类间的关系优化分割结果,使得表现优于单纯的,没有利用过类间关系的,mean class Dice score.

本文核心内容提出了一种在概率标签空间中基于Wasserstein距离的针对于多类分割的Dice分数的语义知识推广。

提出了一种用深度监督的方法在多尺度下嵌入空间信息的Holistic CNN

展示了Holistic CNNs和泛化的Wasserstein Dice分数的联合使用,实现了对脑瘤分割更具语义意义的分割。

Why——为什么要引入Wasserstein距离

许多分割任务都存在一种类不平衡的问题,两个可实现的方法去解决这个问题:1)用合理的抽样策略去抽取patch;2)在目标函数中,使用像素加权来平衡每个类的分配(也即在Loss上做平衡)。

作者说:理想情况下,输入应该是整个图像,以支持GPU和全卷积的效率。所以针对于平衡问题,在Loss上做文章尤为重要而且more promising。

而Dice Loss的提出就是非常好的例子,对类不平衡问题more robust.However!注意了!这一个However,问题就来了:至少有两个可用信息没有在这个公式中充分的被利用!

(1)标签空间的结构

(2)跨尺度的空间信息

所以,本文引入了Wasserstein距离:我们利用Wasserstein距离,它可以自然地嵌入类之间的语义关系,用于比较标签概率向量,以推广多类分割的Dice得分。

纯(crisp)二值分割的Dice分数

Dice 分数计算(不用解释)The number of All Errors

软(soft)二值分割的Dice分数

概率的分割可以表示为标签概率图:

是每个体素

在标签空间

的类别,

是标签概率向量的集合.表示:在S中所有类别等于1的像素的概率的集合表示:在G中所有类别等于1的像素的概率的集合

所以:

其中,

,也就是说,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值