基于多智能体强化学习的迭代细化的交互式三维医学图像分割

论文来自:2020年CVPR

作者:Xuan Liao , Wenhao Li , Qisen Xu , Xiangfeng Wang ,Bo Jin , Xiaoyun Zhang , Yanfeng Wang , and Ya Zhang

单位:上海交通大学,华东师范大学

Abstract

现有的三维图像自动分割方法往往不能满足临床应用的需要。许多研究提出了一种通过迭代地结合用户提示来提高图像分割性能的交互式策略。然而,连续交互的动态过程在很大程度上被忽略了。本文提出将迭代交互式图像分割的动态过程建模为马尔可夫决策过程(MDP),并用强化学习(RL)方法求解。由于勘探空间大,单智能体RL难以进行体素预测。为了将探索空间缩小到可处理的大小,我们将每个体素视为具有共享体素级别行为策略的代理,这样它就可以通过多代理强化学习来解决。这种多主体模型的另一个优点是捕获体素之间的依赖性,用于分割任务。同时,为了丰富先前分割的信息,我们在MDP的状态空间中保留了预测的不确定性,推导了一个调整动作空间,使得分割更精确、更精细。此外,为了提高探索效率,我们设计了相对的基于交叉熵收益的奖励机制,在约束方向上更新策略。对各种医学数据集的实验结果表明,我们的方法显著优于现有的最先进的方法,具有交互更少和收敛更快的优势。

1. Introduction

随着卷积神经网络(CNNs)的发展,自动分割医学图像取得了巨大的进步。但是当前自动方法的准确性和鲁棒性都有待提高。
自动获取粗分割思想:将在初始输入中包含粗分割的方法称为更新方法。目前更新方法存在以下两种主要问题:

  1. 通常忽略连续交互的动态过程。虽然分割可以细化,但是该模型总是单独处理每个细化分割的步骤,而不包含先前的信息。
  2. 另一个问题是预测不确定性的损失,因为是使用二进制分割结果而不是每个体素分割概率作为模型输入。将密集分割概率舍入到二值分割预测可能会造成量化误差和精度损失。

为了解决以上两个问题。
本文提出了一种交互式医学图像分割的更新方法:基于多智能体强化学习的迭代精细交互式三维医学图像分割(IteR-MRL)。将交互式图像分割的动态过程以MDP的形式表述出来。同时,设计了一个基于相对交叉熵增益的奖励机制,以促使智能体更有效地进行探索,而不是考虑当前预测结果与实际情况之间的差异。为了将探索空间缩小到可控制的大小,并明确地建模体素间的依赖关系,我们引入了多智能体的强化学习(MARL)方法

主要贡献:

  1. 我们将交互式图像分割任务定义为MDP,并提出了一种基于MARL的基于体素的交互式分割框架,用于三维医学图像,使用户交互得到更有效的利用。
  2. 提出利用分割概率保留预测不确定性,丰富先前分割的信息,使调整更精确、更精细。
  3. 量的实验表明,在迭代序列中,考虑两步之间的相对增益,在只有少量交互和快速收敛的情况下,分割效果显著提高。

2. Related work

交互式的图像分割方法广泛引用于自然图像和医学图像中。
以下为现有的一些方法:

  1. Graph-based interactive image segmentation(基于图形的交互式图像分割)
  2. CNN-based interactive image segmentation(基于CNN网络的交互式图像分割)
  3. RL-based interactive image segmentation(基于强化学习的交互式图像分割)

3. Methodology

我们将交互式图像分割定义为MDP,并提出了一种新的基于MARL的交互式医学图像分割方法,以更有效地开发交互信息。

3.1 Overview

在这里插入图片描述

  • 图1。迭代细化交互式图像分割方法的流程图。在粗分割条件下,该方法利用用户交互对粗分割进行迭代细化,直到细分割足够好为止。

现有的基于监督学习的算法的主要问题是它们将整个图像细化过程分割成独立的步骤。为了解决这个问题,我们采用RL通过将奖励指定为相对改善来明确捕获成功预测之间的关联。由于体素预测的大状态空间和动作空间以及相互依赖的体素之间的协作的必要性,我们采用MARL的思想:将三维图像中的每个体素视为一个代理。

在这里插入图片描述

  • 图2。基于MARL (IteR-MRL)迭代优化交互式三维医学图像分割算法综述在每个细化步骤中,将包含图像的状态、先前的分割概率和提示图输入到actor网络中,然后actor网络根据其输出动作生成当前分割概率。接下来,用户根据错误区域返回提示点击(红点),通过提示转换生成新的提示映射。在每一步中,奖励是由之前和当前分割交叉的相对增益决定的。

图片二介绍了本文提出的方法的框架IteR-MRL。中间的actor网络利用原始3D图像、之前的分割概率和交互信息作为状态,对分割概率进行更新生成新的分割概率。动者网络输出调整先前分割概率和产生当前分割概率的智能体参数。之后,对当前分割概率进行两次后续操作。一方面,基于实际情况和逐次分割概率,通过计算当前和之前交叉熵的相对增益,向网络反馈一个奖励信号,用于参数更新。另一方面,它呈现给用户,用户提供反馈,即对预测错误的区域点击物体或背景。图2上的放大显示的红点为用户的点击表示。

3.2. Multi-agent RL framework for interactive im-

age segmentation
本文在此给出了一些MARL设置的描述。设 x = ( x 1 , . . . , x N ) x=(x_1,...,x_N) x=(x1,...,xN)是数据集中的任意图像。 x i x_i xi
是x的第i个体素。其中每一个 x i x_i xi对应的策略都是 π i ( a i ( t ) ∣ s i ( t ) ) π_i(a_i^{(t)}|s_i^{(t)}) πi(ai(t)si(t))
s i ( t ) s_i^{(t)} si(t) a i ( t ) a_i^{(t)} ai(t)表示当前状态, a i ( t ) ∈ A a_i^{(t)}∈ A ai(t)A,并且A表示action的集合。 s i ( t ) ∈ S s_i^{(t)}∈ S si(t)S,并且S表示state的集合。
整个图像的角度出发,将之前的分割细化为新的分割。通过全局的行动 a ( t ) = ( a 1 ( t ) , . . . , a N ( t ) ) a^{(t)}=(a_1^{(t)},...,a_N^{(t)}) a(t)=(a1(t),...,aN(t)),agent会转换到全局的状态 s ( t + 1 ) = ( s 1 ( t + 1 ) , . . . , s N ( t + 1 ) ) s^{(t+1)}=(s_1^{(t+1)},...,s_N^{(t+1)}) s(t+1)=(s1(t+1),...,sN(t+1)),并且会的到全局的奖励值 r ( t ) = ( r 1 ( t ) , . . . , r N ( t ) ) r^{(t)}=(r_1^{(t)},...,r_N^{(t)}) r(t)=(r1(t),...,rN(t))

State

对于我们的问题公式,体素代理 x i x_i xi 在步骤 t 处的状态是其体素值 b i b_i bi 的串联,其之前的分割概率 p i ( t ) p_i^{(t)} pi(t) 为对象标并且它在提示图上的两个值分别为: h + , i ( t ) 和 h − , i ( t ) h_{+,i}^{(t)} 和h_{-,i}^{(t)} h+,i(t)h,i(t) ,所以 s i ( t ) = [ b i , p i ( t ) , h + , i ( t ) , h − , i ( t ) ] s_i^{(t)}=[b_i,p_i^{(t)},h_{+,i}^{(t)},h_{-,i}^{(t)}] si(t)=[bi,pi(t),h+,i(t),h,i(t)] ,其中 p i ( t ) ∈ [ 0 , 1 ] p_i^{(t)}∈ [0,1] pi(t)[0,1] 。在初始状态 s i ( 0 ) s_i^{(0)} si(0) 对应的初始粗糙分割概率定义为 p i ( 0 ) p_i^{(0)} pi(0)
在讨论整个提示图生成时,在步骤 t 的用户交互过程中,提示的映射是 h ( t ) h^{(t)} h(t) 是由用户的提示转换而来的,提示又是由用户点击而得到的。提示的数量和位置是根据用户交互规则选择的。
实际上在一张图片中有两个尺寸相同的提示图的通道。对象提示图 h + ( t ) h_+^{(t)} h+(t) 和背景提示图 h − ( t ) h_-^{(t)} h(t) ,它们分别由对象提示集 h s + ( t ) hs_+^{(t)} hs+(t) 和背景提示集 h s − ( t ) hs_-^{(t)} hs(t) 产生。因此,用户提示映射是这两个提示映射的串联: h ( t ) = [ h + ( t ) , h − ( t ) ] h^{(t)}=[h_+^{(t)}, h_-^{(t)}] h(t)=[h+(t),h(t)] 。对于每一个提示图都有 h ℓ t , ℓ ∈ { + , − } h_ℓ^{t},ℓ ∈ \lbrace+,−\rbrace ht,{+,} ,并且定义 h ℓ ( t ) = ( h ℓ , 1 ( t ) , . . . , h ℓ , N ( t ) ) h_ℓ^{(t)}=(h_{ℓ,1}^{(t)},...,h_{ℓ,N}^{(t)}) h(t)=(h,1(t),...,h,N(t)) 。元素 h ℓ , i ( t ) h_{ℓ,i}^{(t)} h,i(t) 在提示图 h ℓ ( t ) h_ℓ^{(t)} h(t) 上是由 x i x_i xi 和相应的提示集合 h s ℓ ( t ) hs_ℓ^{(t)} hs(t) 之间的最小距离计算得到的: h ℓ , i ( t ) = m i n ∀ x j ∈ h s ℓ ( t ) M ( x i , x j ) , h_{ℓ,i}^{(t)}=min_{ ∀x_j ∈hs_ℓ^{(t)}}M(x_i ,x_j ) , h,i(t)=minxjhs(t)M(xi,xj)
其中M是测量两个体素之间距离的函数。两个体素之间的距离是连接这两个体素的所有路径的颜色梯度之和的最小值。(具体看图片2)

Action

为了使调整结果更稳定,不发生突变,我们在此根据之前的概率预估调整量。动作 a i ( t ) ∈ A a_i^{(t)}∈ A ai(t)A x i x_i xi 在第 t 步中通过一个确定的数量 a i ( t ) a_i^{(t)} ai(t) 来调整之前的分割概率 p i ( t ) p_i^{(t)} pi(t) 。因此在执行动作 a i ( t ) a_i^{(t)} ai(t) 后的分割概率为 p i ( t + 1 ) p_i^{(t+1)} pi(t+1) p i ( t + 1 ) = C 0 1 ( p i ( t ) + a i ( t ) ) , p_i^{(t+1)}=C_0^1(p_i^{(t)}+a_i^{(t)}) , pi(t+1)=C01(pi(t)+ai(t))这里 C a b ( x ) = m i n ( m a x ( x , a ) , b ) C_a^b(x)=min(max(x,a),b) Cab(x)=min(max(x,a),b) 是将 x 的值从 a 剪切到 b 。其中 p i ( t + 1 ) p_i^{(t+1)} pi(t+1) 为一个概率,所以属于 [0,1] 。动作集合 A = A k ( k = 1 , 2 , . . . , K ) A={A_k} (k=1,2,...,K) A=Ak(k=1,2,...,K) 包含了K个动作。

Reward

为了提高勘探效率,我们设计了一个相对交叉熵收益的奖励机制,在约束方向上更新模型。具体地说,该方法是对先前分割方法的相对改进,在真实情况 y i y_i yi 与分割概率 p i p_i pi 之间的交叉熵 x i x_i xi 的减少:
r i ( t ) = X i ( t − 1 ) − X i ( t ) , ( 3 ) r_i^{(t)}=X_i^{(t-1)}-X_i^{(t)} , (3) ri(t)=Xi(t1)Xi(t)3

X i ( t ) = − y i l o g ( p i ( t ) ) − ( 1 − y i ) l o g ( 1 − p i ( t ) ) . ( 4 ) X_i^{(t)}=-y_ilog(p_i^{(t)})-(1-y_i)log(1-p_i^{(t)}). (4) Xi(t)=yilog(pi(t))(1yi)log(1pi(t)).4
对于(3),当agent的概率更接近真正的体素标签时,agent将获得正奖励,反之亦然。相对增益不是一个遥远的目标,而是提供给主体一个比较和超越的基准。
一般来说,一个互动体验的累积回报是:

R i = ∑ t = 1 T γ ( t − 1 ) r i ( t ) , ( 5 ) R_i=\sum_{t=1}^T{γ^{(t-1)}r_i^{(t)}}, (5) Ri=t=1Tγ(t1)ri(t)5

其中T是总步数,折扣因子 γ ∈ ( 0 , 1 ] γ∈(0,1] γ(0,1]

3.3. Network and training

在这里插入图片描述

  • 图3。IteR-MRL的网络架构。IteR-MRL的网络架构。政策头和价值头共享低级特征,并提取自己的高级特征。
    我们分别用 θ p θ_p θp θ v θ_v θv 表示策略的参数和头值。
    网络的输入是时间步长 t : s ( t ) s ^{(t)} s(t) 处的状态。头值输出当前状态 V (s(t)) 的估计值。θv 的梯度计算公式为:

d θ v = ∇ θ v A ( s ( t ) , a ( t ) ) 2 , ( 6 ) dθ_v=∇_{θ_v}A(s^{(t)},a^{(t)})^2 , (6) dθv=θvA(s(t),a(t))2,(6)
A ( s ( t ) , a ( t ) ) = ∑ k = t T γ k − t r ˉ ( k ) − V ( s ( t ) ) , ( 7 ) A(s^{(t)},a^{(t)})=\sum_{k=t}^Tγ^{k-t}\bar{r}^{(k)}-V(s^{(t)}) , (7) A(s(t),a(t))=k=tTγktrˉ(k)V(s(t)),(7)

其中 r ˉ ( k ) \bar{r}^{(k)} rˉ(k)是时间步长k处所有体素的平均回报。
A ( s ( t ) , a ( t ) ) A(s^{(t)},a^{(t)}) A(s(t),a(t)) 是在第t步的状态 s ( t ) s^{(t)} s(t) 时采取行动 a ( t ) a^{(t)} a(t) 时才获得的利益,这表示了不受状态影响的实际累计报酬,降低了梯度方差。策略头输出操作策略: π i ( a i ( t ) ∣ s i ( t ) ) π_i(a_i^{(t)}|s_i^{(t)}) πi(ai(t)si(t)) ,这也就是每次行动 a ( t ) a^{(t)} a(t) 的概率。 θ p θ_p θp 的梯度由以下公式计算:

d θ p = − ∇ θ p π ( a ( t ) ∣ s ( t ) ) A ( a ( t ) , s ( t ) ) . ( 8 ) dθ_p=-∇_{θ_p}π(a^{(t)}|s^{(t)})A(a^{(t)},s^{(t)}). (8) dθp=θpπ(a(t)s(t))A(a(t),s(t)).(8)
这两个头部以端对端的方式共同进行训练。

4. Experiments

4.1. Datasets

在本文中,我们在三个三维MRI数据集上做实验。每张图像在使用前都是基于其非零坐标进行裁剪的。初始化方法被定义为产生初始化产物的分割方法。如果在更新方法中再使用经过初始方法训练的图像,粗分割概率(更新方法的初始分割可能性)会因为这些图像已经在初始方法中看到了真实情况而过于完美而无法在更新方法中进行细化。因此,我们提出了一种新的数据集分割方法:数据集分为三个部分,两个具有相等输入量的训练集和一个测试集。

具体来说,我们是随机选取的 Ntrain1 个案例作为训练集,形成初始方法的训练集 Dtrain ,然后在剩余的数据集中随机选择另外 Ntrain 个训练集作为更新方法的训练集 Dtrain2。剩下的 Ntest 个测试集作为训练集 Dtest
三个数据集如下:

  • BraTS2015
  • MM-WHS
  • NCI-ISBI2013

4.2. Settings

Evaluation metrics.

通常,医学图像分割是通过骰子分数来评估的:
D i c e ( S p , S g ) = 2 ∣ S p ∩ S g ∣ ∣ S p ∣ + ∣ S g ∣ , ( 9 ) Dice(S_p,S_g)= \frac{2|S_p\cap S_g|}{|S_p|+|S_g|},(9) Dice(Sp,Sg)=Sp+Sg2SpSg,(9)
这里Sp为预测值,Sg为真实值。| · |代表这个区域的体素数量是多少。
在研究交互式图像分割任务时,不仅考虑了骰子分数,而且还考虑了用户的点击次数。我们的目标是用更少的用户点击获得更高的骰子分数。

User simulation

由于需要大量的人力资源来与真实的医生一起进行实验,我们像其他工作一样模拟用户的点击。以往的工作中,训练的点击量多(≈40),测试的点击量少,而我们的培训和测试的互动策略是一致的。因此,训练设置与测试设置相似,以减少训练与测试之间的偏差。

Implementation details

在预处理过程中,所有图像均按整个数据集的平均值和标准变量进行归一化处理,整个数据集 D = [ Dtrian1, Dtrain2, Dtest ]。

每个图像由边界框裁剪,基于其非零区域,扩展为[0,10]体素,然后将大小调整为55×55×30。数据增强-在三个方向翻转和随机旋转角度范围[-π/8,π/8]在三个方向。

对于不同的数据集,使用Nvidia Titan X GPU的模型训练时间从几小时到两天不等。每个更新步骤的平均推理时间为894ms,其中交互模拟时间为424ms。

4.3. Results

为了进行公平的比较,我们将denseCRF应用到所有与CRF兼容的模上作为最终的精化处理。

Comparisons with state-of-the-art methods
我们用三种最先进的方法来比较IteR-MRL:Min-Cut,DeepIGeoS 和 InterCNN 。
在表1中,更新方法从四种不同的初始分割方法得到粗集:

  1. BG (set all voxel labels to background),
  2. V-Net
  3. HighRes3DNet
  4. DeepIGeoS

实验结果表明,在每种初始方法下,IteR-MRL都比基线获得了更好的结果,说明了该方法的鲁棒性和泛化性更强。
结合不同的初始方法

  • 表1。结合不同的初始方法

为了验证考虑连续预测间的相对增益是否能导致快速改进,我们还分析了表2中一个改进序列所带来的性能改进。

我们在这里使用V-Net作为初始方法(77.15)。对于第一个优化步骤,所有更新方法的性能都有显著提高(从+2.37提高到+8.47)。从第二步开始,大多数性能都遇到了停滞(非常小的改善),尽管添加了新的用户提示。DeepIGeoS(R-Net)在第三步甚至有退化(0.01)。其他方法在每一步的细化过程中都有较慢的改进,而IteR-MRL有较高的改进,证明了考虑连续预测之间的关系增益是有效的。每个细化步骤都有很大的改进,最终也获得了良好的结果(88.53)。此外,我们注意到IteR- MRL在第二步的性能已经超过了其他的最终性能,实现了用户点击次数的减少。图4提供了一个相互作用序列中产能改进的全局视图。

在这里插入图片描述

  • 表2。在一个交互序列里的性能改善

在这里插入图片描述

  • 图4。性能改进显示曲线

图5给出了以V-Net作为初始方法的不同更新方法的可视化结果。具体地说,我们在五个细化步骤之后可视化地细化细分。可以观察到,其他方法倾向于产生一个相当光滑的边界,而IteR-MRL在捕获边缘细节方面表现得更好。
在这里插入图片描述

  • 图5。不同更新方法的可视化

以上结果是使用BraTS2015数据集进行实验得到的。在MM-WHS和NCI-两个数据集上进行了更多的实验。表3中的ISBI2013对鲁棒性进行了验证,采用初始方法V-Net。结果表明,IteR-MRL在不同类型的数据集上具有稳定的性能。
在这里插入图片描述

  • 表3。在不同数据集上的性能

Ablation study
我们分析了不同动作集对算法性能的影响,见表4。
在这里插入图片描述

  • 表4。不同动作和状态设置的组合

在表5中,我们比较了不同的奖励函数设计。相对奖励的另一种选择是绝对奖励,即当前预测与基础事实之间的差异。结果表明,相对的方法具有更好的性能。一个可能的原因是相对增益能更好地反映agent对分割概率的调整。
在这里插入图片描述

  • 表5。奖励函数对性能的影响

交互和模型都能促进性能的提高。现在我们通过改变交互策略来分析交互对性能的贡献有多大。除了前面使用的良好交互外,表6中还做了两个对比实验。没有交互作用的人总是用随机噪声填充提示地图,这样模型就不会接收到任何新的交互信息。另一种交互性较差的方法是在所有体素中随机选择用户点击点。在这种情况下,交互可能向模型传递错误的消息。因此,我们发现有意义的交互确实有助于极大地提高性能。

还可以观察到,具有输出相互作用的模型仍然有一些性能的提高,这可能来自于迭代模型本身。此外,交互不好的交互的退化表明无效的交互会损害性能。
在这里插入图片描述

  • 表6。交互对性能的贡献

为了验证累积奖励相对于即时奖励的有效性,我们分析了一个训练优化序列的总步数T。表7显示,累积奖励优于即时奖励,即时奖励在多步骤互动中表现较差。
在这里插入图片描述

  • 表7。累积奖励vs即时奖励

图6显示了预测和提示之间关系的可视化。图6(a)显示了用户交互对预测和提示图的影响。因为数据是3D,我们用click(中间行)和它的两个相邻的切片(两边的行)来显示切片。提示地图上的红色部分是推荐的对象区域。我们发现,所提出的算法可以成功地纠正用户点击点周围的边缘区域(红点)。此外,对相邻片上的相应区域也进行了改进。在图6(b)中,我们在一个包含五个步骤的交互序列中观察到预测和提示图的变化。不会显示用户的单击,因为单击的切片在每个步骤中都是不同的,我们只关注特定切片的更改。利用提示图的提示,IteR-MRL成功地逐步完善了初始预测。

  • 图6。预测与提示之间关系的可视化。(a)一次点击的可视化及其对预测和提示地图的影响。此时将显示带有click的切片及其两个相邻的切片。用户单击表示为红点。一排五图构成一组,对应一片切片[图像、先前预测、物体提示图、当前预测、Ground truth]。(b)预测的可视化和每一步的提示图。第一列数字为[图像,地面真实值,初始预测]。然后,每一栏形成一个步骤.

5. Conclusion

本文提出了一种基于多智能体强化学习的三维医学图像迭代精细化交互分割方法。该方法显式地模拟了交互式图像分割任务的动态过程,以便在每次迭代时都能得到快速的分割改进。实验结果表明,该方法比现有方法具有更好的性能,并且对不同的初始分割和数据集具有较强的鲁棒性。

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值