【论文笔记】SYMNet:基于CNN的快速对称微分同胚图像配准

本文是论文《Fast Symmetric Diffeomorphic Image Registration with Convolutional Neural Networks》的阅读笔记。文章中有很多关于数学的描述,包括微分同胚、雅克比矩阵没有看懂,所以这部分内容有所残缺,建议读者直接阅读原文。

一、摘要

由于之前的方法忽略了形变场的拓扑保持(topology preservation),并且形变场的平滑性只由全局平滑能量函数来约束,文章提出了一个名为SYMNet的无监督对称图像配准模型,该模型同时估计正向和反向的变换。

基于深度学习的配准方法中实质微分同胚性(substantial diffeomorphic properties)没有得到保证,即忽略了变换的拓扑保持和可逆性。模型的输出是一对微分同胚映射,用来将输入图像从两条测地线(geodesic path)映射到两幅图像的中间地带(middle ground)。微分同胚是可微的映射,并且存在可微的逆。

文章的主要贡献有:

  • 提出了一个快速对称微分同胚图像配准方法来保证变换的拓扑保持和可逆性;
  • 提出了新的方向一致性正则化,用负的Jacobian行列式来惩罚局部区域;
  • 文章提出的范式和目标函数很容易在其他地方应用。

二、 可变形图像配准

可变形图像(deformable image)配准的目标是建立起图像对之间的一个非线性关系,并且估计一个对齐两张图像的非线性转换。

可变形图像配准指的是将浮动图像变形以对齐到固定图像的过程,在该过程中两幅图像之间的相似性得到最大化。可变形图像配准是一个非线性配准过程用来建立浮动图像和固定图像之间的密集的体素级的非线性空间关系(dense voxel-wise non-linear spatial correspondence)。

F F F M M M分别表示固定图像和浮动图像, ϕ \phi ϕ来表示形变场,可变形图像配准过程可以表示为:
ϕ ∗ = arg ⁡ min ⁡ ϕ L s i m ( F , M ( ϕ ) ) + L r e g ( ϕ ) \phi^{*}=\underset{\phi}{\arg \min } \mathcal{L}_{s i m}(F, M(\phi))+\mathcal{L}_{r e g}(\phi) ϕ=ϕargminLsim(F,M(ϕ))+Lreg(ϕ)
其中 ϕ ∗ \phi^{*} ϕ表示最优的形变场, L s i m ( ⋅ , ⋅ ) \mathcal{L}_{sim}(\cdot,\cdot) Lsim(,)表示不相似性函数, L s e g ( ⋅ ) \mathcal{L}_{seg}(\cdot) Lseg()表示平滑正则函数, M ( ϕ ) M(\phi) M(ϕ)表示变形后的浮动图像。

三、相关工作

1. 微分同胚配准

当前的配准方法通常是将位移场 u u u参数化,形变场和位移场的关系为: ϕ ( x ) = x + u ( x ) \phi(x)=x+u(x) ϕ(x)=x+u(x),其中 x x x是恒定变换。这种方式虽然简单,但是对于大的变形来说可能对应的位移场并不存在,所以文章使用的是带有静态速度场的微分同胚变形模型。微分同胚是可微和可逆的,这就保证了平滑的一对一的映射,同时也保留了拓扑性。微分同胚形变场 ϕ t \phi_t ϕt可以由速度场来生成:
d ϕ t d t = v t ( ϕ t ) = v t ∘ ϕ t \frac{d \phi_{t}}{d t}=\boldsymbol{v}^{t}\left(\phi^{t}\right)=\boldsymbol{v}^{t} \circ \phi^{t} dtdϕt=vt(ϕt)=vtϕt
其中 ∘ \circ 是复合运算符(composition operator), v t v^t vt表示时间 t t t时刻的速度场, ϕ 0 = I d \phi^0=Id ϕ0=Id是恒等变换。

形变场可以表示为李代数的一员,并将其指数化以产生时间为1的变形 ϕ ( 1 ) \phi^{(1)} ϕ(1),即李群 ϕ ( 1 ) = exp ⁡ ( v ) \phi^{(1)}=\exp(v) ϕ(1)=exp(v)的一员。这表示指数化的流场使得映射是微分同胚和可逆的。给定初始形变场 ϕ ( 1 / 2 T ) = x + v ( x ) / 2 T \phi^{\left(1 / 2^{T}\right)}=x+v(x) / 2^{T} ϕ(1/2T)=x+v(x)/2T,其中 T T T表示总的时间,那么, ϕ ( 1 / 2 ) \phi^{(1/2)} ϕ(1/2)可以通过重现(recurrence)得到: ϕ ( 1 / 2 t − 1 ) = ϕ ( 1 / 2 t ) ∘ ϕ ( 1 / 2 t ) \phi^{\left(1 / 2^{t-1}\right)}=\phi^{\left(1 / 2^{t}\right)} \circ \phi^{\left(1 / 2^{t}\right)} ϕ(1/2t1)=ϕ(1/2t)ϕ(1/2t)

2. 基于学习的配准

大多数有监督的配准方法采用ground truth形变场或分割图来指导学习过程。文献11(DIRNet)证明了在无监督配准中采用互相关作为相似度评价指标的有效性,文献5(VoxelMorph)通过 L 2 L_2 L2正则损失使得形变场平滑,文献9提出了一个概率微分同胚配准模型。

四、方法

大多数基于学习的配准方法都是只从浮动图像映射到固定图像,而忽略了其逆映射(从固定图像映射到浮动图像)。让 X X X Y Y Y表示两个3D图像,可变形配准问题可以参数化为一个方程: f θ ( X , Y ) = ( ϕ X Y ( 1 ) , ϕ Y X ( 1 ) ) f_{\theta}(X, Y)=\left(\phi_{X Y}^{(1)}, \phi_{Y X}^{(1)}\right) fθ(X,Y)=(ϕXY(1),ϕYX(1)),其中 θ \theta θ表示CNN的参数, ϕ X Y ( 1 ) = ϕ X Y ( x , 1 ) \phi_{X Y}^{(1)}=\phi_{X Y}(x, 1) ϕXY(1)=ϕXY(x,1) ϕ Y X ( 1 ) = ϕ Y X ( y , 1 ) \phi_{Y X}^{(1)}=\phi_{Y X}(y, 1) ϕYX(1)=ϕYX(y,1)分别表示时间为1的从位置 x ∈ X x\in X xX变形到 y ∈ Y y\in Y yY和从位置 y ∈ Y y\in Y yY变形到 x ∈ X x\in X xX的微分同胚形变场。

文章提出分别学习两个时间为0.5的将 X X X Y Y Y变形到它们的平均大小 M M M的形变场,模型收敛之后,时间为1的将 X X X变形到 Y Y Y和将 Y Y Y变形到 X X X的形变场就可以通过结合两个估计的时间为0.5的形变场而得到了。从 X X X Y Y Y的变形可以结构为: ϕ X Y ( 1 ) = ϕ Y X ( − 0.5 ) ( ϕ X Y ( 0.5 ) ( x ) ) \phi_{X Y}^{(1)}=\phi_{Y X}^{(-0.5)}\left(\phi_{X Y}^{(0.5)}(x)\right) ϕXY(1)=ϕYX(0.5)(ϕXY(0.5)(x)),从 Y Y Y X X X的变形可以结构为: ϕ X Y ( 1 ) = ϕ X Y ( − 0.5 ) ( ϕ Y X ( 0.5 ) ( y ) ) \phi_{XY}^{(1)}=\phi_{X Y}^{(-0.5)}\left(\phi_{Y X}^{(0.5)}(y)\right) ϕXY(1)=ϕXY(0.5)(ϕYX(0.5)(y))。因此方程 f θ f_\theta fθ可以重写为: f θ ( X , Y ) = ( ϕ Y X ( − 0.5 ) ( ϕ X Y ( 0.5 ) ( x ) ) , ϕ X Y ( − 0.5 ) ( ϕ Y X ( 0.5 ) ( y ) ) ) f_{\theta}(X, Y)=\left(\phi_{Y X}^{(-0.5)}\left(\phi_{X Y}^{(0.5)}(x)\right), \phi_{X Y}^{(-0.5)}\left(\phi_{Y X}^{(0.5)}(y)\right)\right) fθ(X,Y)=(ϕYX(0.5)(ϕXY(0.5)(x)),ϕXY(0.5)(ϕYX(0.5)(y)))

1. 对称微分同胚神经网络

将方程 f θ f_\theta fθ参数化为一个全卷积网络(FCN)、缩放层、squaring层和可微的空间变换器(STN), ϕ X Y ( 0.5 ) \phi_{XY}^{(0.5)} ϕXY(0.5) ϕ Y X ( 0.5 ) \phi_{YX}^{(0.5)} ϕYX(0.5)使用缩放和squaring方法通过估计的速度场 v X Y v_{XY} vXY v Y X v_{YX} vYX来计算。FCN网络的结构类似于UNet,是一个5层的编码器-解码器结构,并且有跳跃连接。FCN以拼接的2通道的图像作为输入,以2个密集的(dense)、非线性的速度场 v X Y v_{XY} vXY v Y X v_{YX} vYX作为输出。在编码器的每一层,都有两个卷积核大小为 3 × 3 × 3 3\times3\times3 3×3×3,步长分别为1和2的卷积层。在解码器的每一层采用步长为1的卷积核大小分别为 3 × 3 × 3 3\times3\times3 3×3×3的卷积层和步长为1,卷积核为 2 × 2 × 2 2\times2\times2 2×2×2的反卷积层。在解码器的最后两层是卷积核大小为 5 × 5 × 5 5\times5\times5 5×5×5,步长为1的卷积层,并且跟着一个softsign激活函数( softsign ⁡ ( x ) = x 1 + ∣ x ∣ \operatorname{softsign}(x)=\frac{x}{1+|x|} softsign(x)=1+xx),然后乘以常数 c c c,用来产生两个速度场。乘以常数 c c c是为了让速度场的范围在 [ − c , c ] [-c,c] [c,c]之间。实际操作时 c = 100 c=100 c=100。除了最后一个卷积层,FCN的每一个卷积层后面都跟着一个ReLU激活函数。

此外,使用空间变换器(STN)实现缩放层和squaring层,并用它对预测的速度场进行积分。

特别的给定时间步长 T T T,初始化 ϕ X Y ( 1 / 2 T ) = x + v X Y ( x ) / 2 T \phi_{X Y}^{\left(1 / 2^{T}\right)}=x+\boldsymbol{v}_{X Y}(x) / 2^{T} ϕXY(1/2T)=x+vXY(x)/2T ϕ Y X ( 1 / 2 T ) = x + v Y X ( x ) / 2 T \phi_{YX}^{\left(1 / 2^{T}\right)}=x+\boldsymbol{v}_{YX}(x) / 2^{T} ϕYX(1/2T)=x+vYX(x)/2T,通过重现 ϕ ( 1 / 2 t − 1 ) = ϕ ( 1 / t ) ∘ ϕ ( 1 / t ) \phi\left(1 / 2^{t-1}\right)=\phi^{(1 / t)} \circ \phi^{(1 / t)} ϕ(1/2t1)=ϕ(1/t)ϕ(1/t)计算时间为0.5的形变场,直到 t = 1 t=1 t=1

在这里插入图片描述

上图是模型的结构示意图,使用FCN来学习从 X , Y X,Y XY到他们平均大小 M M M的对称的时间为0.5的形变场,绿色的路径表示从 X X X Y Y Y的变换,黄色的路径表示从 Y Y Y X X X的变换,为了简介没有在图中画出 L m a g \mathcal{L}_{mag} Lmag损失。

上图是FCN网络的结构示意图。

2. 对称相似性

L m e a n \mathcal{L}_{mean} Lmean是对称平均形状相似性损失, L s i m \mathcal{L}_{sim} Lsim是图像的相似性损失,有很多相似性度量,比如正则化的互相关NCC、均方误差MSE、距离的平方和SSD和互相关MI,这里选用的是NCC。让 I I I J J J表示两个输入图像, I ˉ ( x ) \bar{I}(x) Iˉ(x) J ˉ ( x ) \bar{J}(x) Jˉ(x)分别是 I I I J J J在位置 x x x的局部均值,局部均值通过以 x x x为中心,大小为 w 3 w^3 w3 w = 7 w=7 w=7的窗口来计算。NCC的定义如下:
N C C ( I , J ) = ∑ x ∈ Ω ∑ x i ( I ( x i ) − I ˉ ( x ) ) ( J ( x i ) − J ˉ ( x ) ) ∑ x i ( I ( x i ) − I ˉ ( x ) ) 2 ∑ x i ( J ( x i ) − J ˉ ( x ) ) 2 \begin{array}{l} N C C(I, J)= \sum_{x \in \Omega} \frac{\sum_{x_{i}}\left(I\left(x_{i}\right)-\bar{I}(x)\right)\left(J\left(x_{i}\right)-\bar{J}(x)\right)}{\sqrt{\sum_{x_{i}}\left(I\left(x_{i}\right)-\bar{I}(x)\right)^{2} \sum_{x_{i}}\left(J\left(x_{i}\right)-\bar{J}(x)\right)^{2}}} \end{array} NCC(I,J)=xΩxi(I(xi)Iˉ(x))2xi(J(xi)Jˉ(x))2 xi(I(xi)Iˉ(x))(J(xi)Jˉ(x))
其中 x i x_i xi表示以 x x x为中心的窗口内的位置。

L s i m \mathcal{L}_{sim} Lsim的表示如下:
L s i m = L mean + L pair \mathcal{L}_{s i m}=\mathcal{L}_{\text {mean}}+\mathcal{L}_{\text {pair}} Lsim=Lmean+Lpair

L mean = − N CC ⁡ ( X ( ϕ X Y ( 0.5 ) ) , Y ( ϕ Y X ( 0.5 ) ) ) \mathcal{L}_{\text {mean}}=-N \operatorname{CC}\left(X\left(\phi_{X Y}^{(0.5)}\right), Y\left(\phi_{Y X}^{(0.5)}\right)\right) Lmean=NCC(X(ϕXY(0.5)),Y(ϕYX(0.5)))

L pair = − N C C ( X ( ϕ X Y ( 1 ) ) , Y ) − N C C ( Y ( ϕ Y X ( 1 ) ) , X ) \mathcal{L}_{\text {pair}}=-N C C\left(X\left(\phi_{X Y}^{(1)}\right), Y\right)-N C C\left(Y\left(\phi_{Y X}^{(1)}\right), X\right) Lpair=NCC(X(ϕXY(1)),Y)NCC(Y(ϕYX(1)),X)

其中, L m e a n \mathcal{L}_{mean} Lmean用来衡量 X X X Y Y Y之间的不相似性,它们朝向平均大小 M M M L p a i r \mathcal{L}_{pair} Lpair衡量变形后的 X X X Y Y Y以及变形后的 Y Y Y X X X之间的不相似性。

3. 局部方向一致性

全局正则化会使配准的精度降低,实际上全局正则化不能保证变换的拓扑保持,为了解决这个问题,提出了可选性雅可比行列式正则,以促进预测形变场的局部的方向一致性。可选性雅克比行列式正则损失为:
L J d e t = 1 N ∑ p ∈ Ω σ ( − ∣ J ϕ ( p ) ∣ ) \mathcal{L}_{J d e t}=\frac{1}{N} \sum_{p \in \Omega} \sigma\left(-\left|J_{\phi}(p)\right|\right) LJdet=N1pΩσ(Jϕ(p))
其中 N N N表示 ∣ J ϕ ∣ |J_\phi| Jϕ中元素的总数量; σ ( ⋅ ) \sigma(\cdot) σ()表示激活函数,这里用的是 σ ( ⋅ ) = max ⁡ ( 0 , ⋅ ) \sigma(\cdot)=\max(0,\cdot) σ()=max(0,),作用等同于ReLU; ∣ J ϕ ( ⋅ ) ∣ |J_\phi(\cdot)| Jϕ()表示在位置 p p p处形变场 ϕ \phi ϕ的雅克比行列式,其公式如下:
J ϕ ( p ) = ( ∂ ϕ x ( p ) ∂ x ∂ ϕ x ( p ) ∂ y ∂ ϕ x ( p ) ∂ z ∂ ϕ y ( p ) ∂ x ∂ ϕ y ( p ) ∂ y ∂ ϕ y ( p ) ∂ z ∂ ϕ z ( p ) ∂ x ∂ ϕ z ( p ) ∂ y ∂ ϕ z ( p ) ∂ z ) J_{\phi}(p)=\left(\begin{array}{lll} \frac{\partial \phi_{x}(p)}{\partial x} & \frac{\partial \phi_{x}(p)}{\partial y} & \frac{\partial \phi_{x}(p)}{\partial z} \\ \frac{\partial \phi_{y}(p)}{\partial x} & \frac{\partial \phi_{y}(p)}{\partial y} & \frac{\partial \phi_{y}(p)}{\partial z} \\ \frac{\partial \phi_{z}(p)}{\partial x} & \frac{\partial \phi_{z}(p)}{\partial y} & \frac{\partial \phi_{z}(p)}{\partial z} \end{array}\right) Jϕ(p)=xϕx(p)xϕy(p)xϕz(p)yϕx(p)yϕy(p)yϕz(p)zϕx(p)zϕy(p)zϕz(p)
但是并不是用可选性雅克比行列式正则损失代替原来的全局正则化,而是同时使用两者,以产生平滑且拓扑保持的变换。

接着,使用 L r e g = ∑ p ∈ Ω ( ∥ ∇ v X Y ( p ) ∥ 2 2 + ∥ ∇ v Y X ( p ) ∥ 2 2 ) \mathcal{L}_{r e g}=\sum_{p \in \Omega}\left(\left\|\nabla \boldsymbol{v}_{X Y}(p)\right\|_{2}^{2}+\left\|\nabla \boldsymbol{v}_{Y X}(p)\right\|_{2}^{2}\right) Lreg=pΩ(vXY(p)22+vYX(p)22)来加强速度场的平滑,还通过幅值约束(magnitude constraint) L m a g = 1 N ( ∥ v X Y ∥ 2 2 − ∥ v Y X ∥ 2 2 ) \mathcal{L}_{m a g}=\frac{1}{N}\left(\left\|\boldsymbol{v}_{X Y}\right\|_{2}^{2}-\right.\left.\left\|\boldsymbol{v}_{Y X}\right\|_{2}^{2}\right) Lmag=N1(vXY22vYX22)来避免在路径上的偏移。所以总的损失函数为:
L ( X , Y ) = L s i m + λ 1 L J d e t + λ 2 L r e g + λ 3 L m a g \mathcal{L}(X, Y)=\mathcal{L}_{s i m}+\lambda_{1} \mathcal{L}_{J d e t}+\lambda_{2} \mathcal{L}_{r e g}+\lambda_{3} \mathcal{L}_{m a g} L(X,Y)=Lsim+λ1LJdet+λ2Lreg+λ3Lmag

五、实验

在T1权重的脑部MRI数据集OASIS上做了基于图谱的配准实验,先将所有图像重采样到 256 × 256 × 256 256\times256\times256 256×256×256大小,然后使用FreeSurfer做标准的预处理,包括运动校正、去除头骨、仿射空间归一化和皮质下结构分割。然后将图像裁剪为 144 × 192 × 160 144\times192\times160 144×192×160大小。并将数据集划分为255、20、150分别作为训练集、验证集和测试集。随机从测试集选择5个MR图像作为图谱。

使用Dice相似系数(DSC)和雅克比行列式 ∣ J ϕ ∣ |J_\phi| Jϕ作为衡量标准。DSC的取值范围是[0,1],配准的越好对应的DSC值越大。雅克比行列式可以捕捉形变场的局部行为。选用ANTs包中的SyN、VoxelMorph(VM)和DIF-VM作为baseline。使用SGD优化器,学习率为 1 e − 4 1e^{-4} 1e4,动量为0.9, λ 1 = 1000 , λ 2 = 3 , λ 4 = 0.1 \lambda_1=1000,\lambda_2=3,\lambda_4=0.1 λ1=1000λ2=3λ4=0.1

在这里插入图片描述
上图是SYMNet与baseline模型的配准结果对比。
在这里插入图片描述
上图是平均DSC值(越高越好)和非正雅克比行列式的平均体素数(越低越好),可以发现SYMNet在DSC上取得最好的效果,在 ∣ J ϕ ∣ |J_\phi| Jϕ上效果次优。
在这里插入图片描述
上表展示了局部方向一致性损失的影响。

上表对比了各种模型运行所需要的时间,可以发现SYMNet所需时间最短。

  • 9
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 9
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值