[小样本医学图像分割]Data augmentation using learned transformations for one-shot medical image segmentation

使用学习转换方法的数据扩充one-shot医学图像分割(CVPR2019)
论文地址
开源代码

摘要

本文提出了一种自动数据扩充方法来合成有标记的医学图像。我们展示了这一方法在分割大脑核磁共振成像(MRI)上的表现,我们的方法只需要一次分段扫描,并且在半监督的方法中利用了其它未标记的扫描。我们从图像中学习转换模型,并使用该模型和标记的示例来合成其他标记的示例。
每个变换都由空间变换和强度变换组成,能够合成复杂的效果,模拟解剖和图像采集程序的变化。

目前存在的问题和方案

在医学图像的采集过程中,不同机器和机构的图像采集程序的差异加剧了有限标记数据的问题,这可能会产生分辨率、图像噪声和组织外观的巨大差异。为了克服这些挑战,许多监督生物医学分割方法关注于手工预处理步骤和架构。通常也会使用手动调整的数据增强来增加训练示例的数量。数据增强函数,如随机图像旋转或随机非线性变形,很容易实现,并且在某些设置下可以有效地提高分割精度。然而,这些函数模拟真实变量的能力有限,并且对参数的选择非常敏感。

我们通过合成多样且真实的标记样本来解决有限标记数据的问题,这一新的数据扩充方法利用了未标记的图像。利用基于学习的配准方法,我们对数据集中图像之间的空间和外观变换进行了建模。这些模型捕捉了未标记图像的解剖学特性和成像多样性,我们通过采样这些转换来合成新的样本,并将它们应用到单个标记的例子中。

方法

在这里插入图片描述

我们提出在半监督学习框架下综合真实的训练实例来改进one-shot生物医学图像分割的方法。

假定 { y ( i ) } \left\{ y^{\left( i \right)} \right\} {y(i)}是一组生物医学图像体,让图像对 ( x , l x ) (x,l_x) (x,lx)表示一个标注的参考体,或者说atlas,以及其对应的分割图。在脑MRI分割中,每一个 x x x y y y都是一个灰度3D体。我们关注的是只有一个标记地图集是可用的情况,因为在实践中往往很难获得许多标注的分割体。我们的方法可以很容易地扩展到利用额外的分割体信息。

为了进行数据扩展,我们对标记的atlas x x x使用变换 τ ( k ) \tau ^{\left( k \right)} τ(k)。我们首先学习空间转换(spatial transform)和外观转换(appearance transform)模型来捕捉标记的atlas和未标记的volume之间的解剖和外观差异。然后使用这两个模型,通过对atlas应用空间变换和外观变换来合成标记体 { ( y ^ ( k ) , l ^ y ( k ) ) } \left\{\left(\hat{y}^{(k)}, \hat{l}_{y}^{(k)}\right)\right\} {(y^(k),l^y(k))}。与单atlas分割存在空间变换模型不确定性或误差的情况相比,我们使用相同的空间变换来合成volume和label map,确保新合成的volume得到正确的标记。这些合成的例子形成了一个标记数据集,它描述了未标记数据集的解剖和外观变化。与atlas一起,这个新的训练集使我们能够训练有监督的分割网络。

Spatial and appearance transform models

我们使用空间和强度变化的组合来描述扫描之间的差异。具体来说,我们将 τ ( ⋅ ) \tau \left( \cdot \right) τ()定义为空间变换 τ s ( ⋅ ) \tau _s\left( \cdot \right) τs()和强度(外观)变化 τ a ( ⋅ ) \tau _a\left( \cdot \right) τa()的组合,也即 τ ( ⋅ ) = τ s ( τ a ( ⋅ ) ) \tau(\cdot)=\tau_{s}\left(\tau_{a}(\cdot)\right) τ()=τs(τa())

我们假设空间变换采用平滑的体素级(voxel-wise)位移场 u u u的形式。根据医学文献,我们定义了变形函数 ϕ = i d + u \phi=\mathrm{id}+u ϕ=id+u,其中 i d id id是身份函数。我们使用 x ∘ ϕ x \circ \phi xϕ表示空间变换 ϕ \phi ϕ x x x的应用。为了模拟数据集中空间变换的分布,我们使用 ϕ ( i ) = g θ s ( x , y ( i ) ) \phi^{(i)}=g_{\theta_{s}}\left(x, y^{(i)}\right) ϕ(i)=gθs(x,y(i))将atlas x x x扭曲成每个volume y ( i ) y^{(i)} y(i)的变形,我们将 y ( i ) y^{(i)} y(i) x x x的逆变换写作 ϕ − 1 ( i ) = g θ s ( y ( i ) , x ) \phi^{-1^{(i)}}=g_{\theta_{s}}\left(y^{(i)}, x\right) ϕ1(i)=gθs(y(i),x)

我们对外观变换 τ a ( ⋅ ) \tau _a\left( \cdot \right) τa()建模为在atlas的空间框架中逐体素叠加。我们使用函数 ψ ( i ) = h θ a ( x , y ( i ) ∘ ϕ − 1 ( i ) ) \psi^{(i)}=h_{\theta_{a}}\left(x, y^{(i)} \circ \phi^{-1^{(i)}}\right) ψ(i)=hθa(x,y(i)ϕ1(i))计算每个体素的volume,其中 y ( i ) ∘ ϕ − 1 ( i ) y^{(i)} \circ \phi^{-1^{(i)}} y(i)ϕ1(i)表示一个使用我们学习的空间模型转换到atlas空间的volume。综上所述,我们对空间和外观变换表示为:
在这里插入图片描述

Learning

我们的目的是捕捉atlas与未标记体之间的转换分布 τ s ( ⋅ ) \tau _s\left( \cdot \right) τs() τ a ( ⋅ ) \tau _a\left( \cdot \right) τa()。我们使用单独的卷积神经网络来估计函数 g θ s ( ⋅ , ⋅ ) g_{\theta_{s}}(\cdot, \cdot) gθs(,) and h θ a ( ⋅ , ⋅ ) h_{\theta_{a}}(\cdot, \cdot) hθa(,),每个网络使用如图3所示的架构:
在这里插入图片描述
对于我们的空间模型,我们利用了VoxelMorph,这是一种最新的基于无监督学习的开源实现方法。VoxelMorph学习输出平滑的位移矢量场,通过联合优化图像相似损失和位移场平滑项来实现一张图像到另一张的转化。我们使用一种具有归一化互相关的VoxelMorph变体作为图像相似度损失,使未归一化输入量的 g θ s ( ⋅ , ⋅ ) g_{\theta_{s}}(\cdot, \cdot) gθs(,)的估计成为可能。

我们使用类似的方法来学习外观模型。具体来说,可以将Eq.(2)中的 h θ a ( ⋅ , ⋅ ) h_{\theta_{a}}(\cdot, \cdot) hθa(,)定义为atlas空间中volume的简单逐体素减法。这种变换可以完美地重建目标图像,当配准函数 ϕ − 1 \phi^{-1} ϕ1不完善时,它将包括无关的细节,导致图像中的 x + ψ x+\psi x+ψ细节与解剖标签不匹配。因此,我们将 h θ a ( ⋅ , ⋅ ) h_{\theta_{a}}(\cdot, \cdot) hθa(,)设计为一种神经网络,以解剖学对齐的方式产生每体素的强度变化。具体来说,我们使用了图像相似性损失以及语义感知平滑正则化。给定网络输出 ψ ( i ) = h θ a ( x , y ( i ) ∘ ϕ − 1 ) \psi^{(i)}=h_{\theta_{a}}\left(x, y^{(i)} \circ \phi^{-1}\right) ψ(i)=hθa(x,y(i)ϕ1),我们根据atlas分割图定义一个平滑正则化函数:
在这里插入图片描述
其中 c x c_x cx是由atlas分割标签 l x l_x lx计算出的解剖边界的二值图像, ▽ \triangledown 表示空间梯度算子。直观地说,这个公式组织同一解剖区域内剧烈的强度变化。

在整体外观变换模型损失 L a \mathcal{L}_a La中,我们使用均方误差来计算图像相似度损失 L sim ⁡ ( y ^ , y ) = ∥ y ^ − y ∥ 2 \mathcal{L}_{\operatorname{sim}}(\hat{y}, y)=\|\hat{y}-y\|^{2} Lsim(y^,y)=y^y2。在我们的实验中,我们发现计算空间框架内的图像相似度损失是有帮助的。我们用正则化项 L s m o o t h \mathcal{L}_{smooth} Lsmooth来平衡相似损失:
在这里插入图片描述

Synthesizing new examples

公式(1)和(2)所描述的模型使我们能够通过对未标记数据集中采样的目标volumes y ( i ) y^{(i)} y(i) y ( j ) y^{(j)} y(j)实现空间和外观变换 τ s ( i ) , τ a ( j ) \tau_{s}^{(i)}, \tau_{a}^{(j)} τs(i),τa(j)。由于空间和外观目标可以是不同的主体,我们的方法可以将一个主体的空间变化与另一个主体的强度结合成一个单一的合成volume y ^ \hat{y} y^。我们通过应用从目标volume到带标签的atlas计算的转换来创建一个带标签的合成样本:
在这里插入图片描述

实验结果

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
元调优损失函数和数据增强是针对少样本目标检测的重要技术。在少样本目标检测任务中,由于样本数量有限,模型往往很难对新类别的目标进行准确的检测。为了解决这一问题,研究者提出了使用元调优的方法来调整损失函数和增强数据。 首先,元调优损失函数是指通过优化损失函数的参数,使得模型在少样本情况下能够更好地泛化到新类别的目标。通常采用的方法是设计一个元损失函数,这个函数能够根据当前任务的特性来自动调整模型的损失函数。通过元损失函数的调整,模型可以更好地适应少样本目标检测任务,提高检测的准确性和泛化能力。 其次,数据增强是指在训练过程中对样本进行一些变换,来生成更多的训练样本。对于少样本目标检测任务,数据增强能够帮助模型学习到更多不同类别目标的特征,提高模型的泛化能力。通过元调优的方法,可以设计一些特定的数据增强策略,使得模型在少样本情况下能够更好地学习到不同类别目标的特征,从而提高检测的准确性和泛化能力。 总之,元调优损失函数和数据增强是针对少样本目标检测问题的重要技术,能够帮助模型更好地适应少样本情况,提高检测的准确性和泛化能力。通过这些技术的应用,可以使得少样本目标检测模型在实际应用中取得更好的效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值