论文题目:Generalised Wasserstein Dice Score for Imbalanced Multi-class Segmentation using Holistic Convolutional Networks
前言
这篇论文读了2-3天才读完,真的感觉有点难,特别是涉及到公式一类的,又查了各种关于Wasserstein距离的资料,勉强能看得懂,但是这篇文章确实值得一读,因为跟随他的线索,你可能会感觉到,又发现了新大陆,你不曾知道的大陆——两个分布之间的度量。到底有多少种度量方法?哪种方法最优?最适合解决当前的问题?这些都是需要去了解的,关于这些,我会写在最后的补充里。
关于这篇文章,作者是这样说的:虽然使用mean class Dice score训练的CNNs在多类分割中获得了最先进的结果,但这种损失函数既没有利用类间关系,也没有利用多尺度信息。所以说,本文利用Wasserstein 距离的侧重点是为了联系多类分割中类间的关系,利用这种类间的关系优化分割结果,使得表现优于单纯的,没有利用过类间关系的,mean class Dice score.
本文核心内容提出了一种在概率标签空间中基于Wasserstein距离的针对于多类分割的Dice分数的语义知识推广。
提出了一种用深度监督的方法在多尺度下嵌入空间信息的Holistic CNN
展示了Holistic CNNs和泛化的Wasserstein Dice分数的联合使用,实现了对脑瘤分割更具语义意义的分割。
Why——为什么要引入Wasserstein距离
许多分割任务都存在一种类不平衡的问题,两个可实现的方法去解决这个问题:1)用合理的抽样策略去抽取patch;2)在目标函数中,使用像素加权来平衡每个类的分配(也即在Loss上做平衡)。
作者说:理想情况下,输入应该是整个图像,以支持GPU和全卷积的效率。所以针对于平衡问题,在Loss上做文章尤为重要而且more promising。
而Dice Loss的提出就是非常好的例子,对类不平衡问题more robust.However!注意了!这一个However,问题就来了:至少有两个可用信息没有在这个公式中充分的被利用!
(1)标签空间的结构
(2)跨尺度的空间信息
所以,本文引入了Wasserstein距离:我们利用Wasserstein距离,它可以自然地嵌入类之间的语义关系,用于比较标签概率向量,以推广多类分割的Dice得分。
纯(crisp)二值分割的Dice分数
Dice 分数计算(不用解释)
The number of All Errors
软(soft)二值分割的Dice分数
概率的分割可以表示为标签概率图:
和
是每个体素
在标签空间
的类别,
是标签概率向量的集合.
表示:在S中所有类别等于1的像素的概率的集合
表示:在G中所有类别等于1的像素的概率的集合
所以:
其中,
,也就是说,