Geometry-Aware Attenuation Field Learning for Sparse-View CBCT Reconstruction

摘要:

锥形束CT(Cone Beam Computed Tomography,CBCT)是目前口腔医学中应用最广泛的一种成像方法,要重建一幅高质量的CBCT图像,需要进行数百次的X线投影(即,衰减场)在传统算法中,表示稀疏之义视图CBCT重建已成为降低辐射剂量的主要研究方向,但由于数据量不足或重建的泛化能力差,已进行了多次尝试来解决该问题本文提出了一种新的衰减场编码-解码器框架,首先对来自多视角X射线投影的体特征进行编码,然后将其解码为期望的衰减场,我们遵循了多视角CBCT重建的本质,强调了多视角CBCT重建的几何一致性。该方法具有良好的空间感知特性、空间特征查询特性和自适应特征融合特性,同时利用数据种群的先验知识保证了算法的泛化能力,并通过下游应用进一步验证了所提方法的可行性。

1.介绍

锥形束计算机断层扫描(CBCT)是 CT 扫描的一种变体,是牙科领域应用最广泛的成像技术,因为它能以更短的扫描时间提供空间分辨率更高的三维结构信息。CBCT 的标准成像方案如图 1 所示。在 CBCT 扫描过程中,X 射线源沿着弧形轨道均匀移动,每移动一个角度,就会向感兴趣的器官(如口腔)发射一束锥形光束。患者另一侧的探测器捕捉二维透视投影。CBCT 重建的目的是从这些二维投影中反向恢复出三维衰减场(即 CBCT 图像)。这主要是通过滤波背投影(FBP)算法实现的,然而,这种方法通常需要数百个投影视图,辐射量很大。因此,通过减少投影视图数量进行稀疏视图(如 5 或 10 个视图)CBCT 重建受到了研究领域的广泛关注。

图 1. CBCT 成像:(a) CBCT 扫描会产生一系列 (b) X 射线投影,通过 CBCT 重构,这些投影将被用于绘制 (c) 三维 CBCT 图像。

由于数据不足,稀疏视图 CBCT 重建是一项具有挑战性的任务。为了解决这个问题,许多传统方法都利用了获取的投影与重建图像之间的一致性。例如,SART [1] 提出了一种迭代策略,在更新三维衰减场的同时,最小化二维投影与其估计值之间的差异。这种方法在噪声和数据不足的情况下很有效,但仍然会影响图像质量,同时对计算要求较高。随着深度学习的发展,一些基于学习的方法被设计用来从数据群体中学习常识[5,11,14],并从卷积网络的泛化能力中获益。这些框架基于编码器-解码器结构,其中二维编码器学习给定投影的特征表示,然后通过简单的重塑将其组合并转移到三维,再通过三维解码器生成容积图像。虽然这些方法可以提供不错的重建图像,但往往缺乏重要的精细细节,而且往往过于平滑。这主要是由于多个固定姿势的投影被强行连接起来,完全忽略了它们的空间视图和几何关系。最近,另一种方法--神经渲染[8]--似乎是一种新兴的视图合成技术,其目标也是与 CBCT 重建类似的反渲染问题。不过,CBCT 重建的目标是整个容积衰减场(见图 1)。1),而计算机视觉中的神经渲染只是近似感兴趣物体的表面。NAF [16] 首次将这一技术应用于稀疏视图 CBCT 重建,并利用多分辨率哈希编码 [9],在只有 50 个投影的情况下实现了良好的性能。它得益于三维几何感知和神经渲染的多视图一致性,尽管输入不够充分,但仍能保留精细细节。遗憾的是,由于没有泛化能力,NAF 依赖于耗时的每个场景优化,通常一个受试者需要花费几十分钟,而且没有彻底解决稀疏视图问题,因此在提供非常有限的投影(如 5 或 10 个视图)时,很难产生可靠的质量。

在本文中,我们提出了一种用于稀疏视图 CBCT 重建的几何感知衰减场学习的新型编码器-解码器框架。基于学习方法的泛化能力和多视图重建(如神经渲染)的几何感知视图一致性。具体来说,我们首先采用 CNN 特征提取对 X 射线投影进行编码。然后,在构建容积特征时,我们通过从不同投影进行几何感知特征查询来强调视图一致性。此外,考虑到不同视图的重要性,我们利用自适应特征融合技术将多视图特征聚合到点式衰减特征向量中。这样就形成了一个三维衰减特征场,最后通过衰减场解码将其解码为 CBCT 图像所需的分辨率。我们的框架对于输入姿势和视图数量都很灵活。得益于从数据群体中学到的先验知识,我们的方法无需进一步训练就能自然地推广到其他患者,并在输入视图非常有限的情况下(如 5 或 10 个视图)高效地生成高质量的重建图像。实验证明了我们的方法具有卓越的重建质量,这一点在潜在的下游应用(如牙齿分割)中得到了进一步验证。

2.方法

2.1 几何感知衰减场学习

CNN 特征提取 根据图 1,三维衰减场是用二维 X 射线投影以反渲染方式求解的。一个直观的想法是提取这些投影的特征表示,并利用它们来学习衰减场的映射。具体来说,给定 N 个投影 fIig N i=1,我们利用二维 CNN 编码器 E(在我们的工作中为 ResNet34 [4])来提取二维特征表示,表示为 fFi = E(Ii)g N i=1。

几何感知特征查询 我们框架的关键之处在于通过几何感知来学习衰减场。如图 2 所示,我们的目标是通过查询像素坐标中的二维特征表示,获取世界坐标中的衰减特征场。

在此步骤中,我们在稀疏体素网格上对三维查询点进行采样,然后利用其相机姿态信息在世界坐标和像素坐标之间进行变换,将每个查询点分别投影到所有特征表示 fFig N i=1 上。对于 Fi,我们将其外在相机矩阵表示为 M(i) = [R(i) t (i) ],内在相机矩阵表示为 K(i),其中 R(i) 表示旋转,t (i) 表示平移。然后,对于世界坐标中的每个三维查询点 x,我们将其转换为 Fi 的相应像素坐标 x (i) uv,如下所示:

然后,我们就可以通过双线性插值从 Fi 得到 x 的特征向量:

其中,fi 2 R C。这样,我们就可以从所有二维特征表示 fFig N i=1 中获得查询点 x 的空间一致特征向量 ffig N i=1。

自适应特征融合 通过特征查询获取查询点 x 的多视角特征向量 ffig N i=1 后,我们的目标是将它们融合为衰减特征向量 f。然而,由于查询点的空间定位各不相同,特定查询点 x 可能会从不同视角获得不同的衰减信息。因此,受文献[12]的启发,我们设计了一种自适应特征融合策略来聚合这些特征向量。具体来说,对于查询点 x 的 ffig N i=1,我们计算一个元素均值向量 fµ 2 R C 和方差向量 fσ 2 R C,以捕捉全局信息。我们将每个 fi 视为第 i 个视图的局部信息,并通过串联将其与 fµ 和 fσ 整合为全局信息。合并后的特征被送入第一个 MLP,以聚合局部和全局信息,产生一个聚合的全局感知特征向量 f 0 i 2 R C 和每个视图的归一化池化权重 wi 2 [0; 1],将其加权求和后送入第二个 MLP,得到最终的融合特征 f 2 R C。注意,池化权重 wi 可视为第 i 个视图的贡献因子。

衰减场解码 在获得每个查询点的衰减特征向量 f 后,我们就可以将所有查询点组合在一起建立衰减特征场。受硬件设备内存大小的限制,我们建立了一个低分辨率的衰减特征体素网格,其下采样大小为 D=S ×H=S ×W=S ×C,这大大加快了计算速度。该衰减特征场可视为目标 CBCT 图像的特征表示。因此,我们将其输入衰减场解码器,以获得所需分辨率为 D × H × W 的目标容积衰减场(即 CBCT 图像)

2.2模型优化

我们主要使用地面真实容积衰减值来监督框架的训练。我们首先将重建损失 Lrecon 定义为地面实况 Vgt 与预测值 Vpred 之间的 L1 损失,以加强体素方面的相似性。我们还利用最小二乘对抗损失 Ladv [7],应用斑块判别 [17] 来提高重建质量。为了恢复细粒度细节,我们进一步引入梯度损失 Lgrad,作为地面真实值 rVgt 与预测值 rVpred 的一阶差分之间的 L1 损失。特别是,与基于神经渲染的方法[8,16]类似,我们还引入了自监督二维投影损失 Lproj,即在训练阶段最小化随机批次 B 的 DRR 渲染像素与其地面实况之间的 L1 损失。因此,我们的最终目标函数定义为:

其中,λadv、λgrad 和 λproj 用于控制不同项的重要性。

3 实验

3.1 实验设置

数据集 在临床实践中,成对的二维 X 射线投影和三维 CBCT 图像非常稀缺。因此,我们利用数字重建放射成像(DRR)技术,从采集的 CBCT 图像中生成多个 X 射线投影,即如图 1 所示的过程,并利用比尔定律模拟扫描过程中的 X 射线衰减,从而解决了这一难题。我们的数据集由 130 幅不同患者的牙科 CBCT 图像组成,分辨率为 256 × 256 × 256。我们将其分为 100 张训练图像、10 张验证图像和 20 张测试图像。如上所述,我们为每张 CBCT 图像生成相应的 X 射线投影。在实验中,我们以 CBCT 图像中心为圆心,每 360=N 度生成 N 个 X 射线投影,每个 X 射线投影的分辨率为 256 × 256。我们在本文中选择 N = 5、10 和 20。

实现细节 在实验中,我们根据经验设置了 λadv = 0:001、λproj = 0:01、λgrad = 1、下采样率 S = 4、通道大小 C = 256 和 DRR 射线批大小 jBj = 1024。我们使用学习率为 1×10-4 的亚当优化器,学习率每 50 个历时衰减 0.5,训练过程在 150 个历时后结束。解码器和鉴别器是 SRGAN [6,10] 的 3D 实现。所有实验均在单个 A100 GPU 上进行。

比较方法和评估指标 我们提出的框架与四种典型方法(即 FBP、SART、NAF 和 PixelNeRF)进行了比较。FBP [3] 是业界广泛使用的经典 CBCT 重建算法。SART [1] 是一种传统算法,通过迭代最小化和正则化来解决稀疏视图问题。NAF [16]基于神经渲染[8]和多分辨率哈希编码[9]的适应性,提供了最先进的CBCT重建性能和每场景优化。由于神经渲染旨在解决与我们的工作高度相关的反渲染问题,我们还将我们的方法与 PixelNeRF [15] 进行了比较,PixelNeRF 是计算机视觉领域的一个代表性框架,通过利用 CNN 的泛化能力来解决稀疏视图问题。值得注意的是,我们没有与 [5、11、14] 进行比较,因为它们无法处理灵活的输入姿势和视图数量。我们利用两个常用指标来评估重建性能,即峰值信噪比(PSNR)和结构相似性(SSIM)[13]。我们还报告了重建时间,以衡量不同方法的效率。

3.2 结果

定量和定性结果 表 1 列出了不同方法的定量比较。我们的方法优于所有其他方法,达到了在 PSNR 和 SSIM 方面都有明显优势。值得注意的是,我们的方法只需 5 个输入视图就能达到最高性能(27.38 dB 的 PSNR),而 20 个输入视图的 PSNR 超过 30 dB,大大超过了目前最先进的方法(即 NAF)。此外,我们的重建时间不到一秒,比其他稀疏视图方法(即 SART、NAF 和 PixelNeRF)快得多。SART 和 NAF 分别存在迭代计算耗时和按场景优化的问题,与 PixelNeRF 相比,我们受益于低分辨率特征查询。

图 3 是重建的三维 CBCT 轴切片图像的直观对比。可以看出,FBP 无法处理稀疏视图输入,导致视图不足而产生严重的条纹伪影。SART 可以通过减少这些伪影来显著提高质量,但这需要牺牲重要的精细细节。NAF 可以通过哈希编码器进行神经渲染,从而实现高质量的重建。然而,在输入视图数量极其有限的情况下(如 5 或 10 个视图),其质量会急剧下降,因为它是一种按场景优化的方法,不具备从各种数据中学习的通用能力。PixelNeRF 也和我们一样具有通用能力,但它缺乏体积监督来确保三维质量,而这正是医学成像和自然场景之间的关键区别。值得注意的是,我们的方法优于所有其他方法,而且是唯一一种即使只有 5 个输入视图也能提供与地面实况相当质量的方法。

表 1. 不同方法的定量比较。

图 3. 不同方法的定性比较。

消融研究 表 2 列出了定量消融研究的结果,其中基线模型只是利用平均池法汇总不同输入视图的特征向量,在训练过程中只采用重构和对抗损失。表中的每一个 "X "表示在基线模型中添加相应的组件,作为新的备选方案。注意,表中的 "ada. "表示自适应特征融合策略。可以看出,与其他 SOTA 方法相比,我们的基线模型已经表现最佳。例如,在 PSNR 方面,与 PixelNeRF 相比,我们在 5、10 和 20 个视图上分别获得了 4:35 dB、3:83 dB 和 3:12 dB 的显著提升。因为我们强大的基线在特征学习中配备了几何感知视图一致性,在训练中配备了体素智能监督,这些都为我们的方法奠定了基础,也是我们方法成功的关键。此外,随着其他组件的加入,PSNR 和 SSIM 值也逐渐增加,这证明了我们技术设计的有效性。举例来说,自适应特征融合技术就能有效地解决这一问题。与平均汇集相比,投影损失能更灵活、更准确地整合来自不同视图的信息,从而带来相对可观的改进。投影损失和梯度损失分别提高了几何感知视图的一致性和清晰度。

表 2. 不同组件的消融研究

按场景微调 经过跨场景训练后,我们的模型可以从稀疏的 X 射线视图中提供像样的 CBCT 图像重建。我们可以通过只使用相同输入视图的投影损失来进一步微调场景结果。经过大约 4-15 分钟的优化后,5、10 和 20 个视图的重建结果的 PSNR 值平均分别提高了 0.66 dB、0.74 dB 和 0.75 dB。

应用 我们将牙齿分割作为下游应用来评估重建 CBCT 图像的质量。我们首先获取测试集中每张 CBCT 图像的专家人工注释,然后使用预先训练好的 SOTA 网络 [2] 对牙齿进行分割。作为参考,我们测试集中来自地面实况 CBCT 图像的牙齿分割(与人工标注相比)的平均 Dice 分数为 0:94。因此,无论哪种方法的 Dice 分数更接近这个值,都能获得更高的重建质量。在图 4 中,我们报告了所有方法的 Dice 分数(平均值和标准偏差),这些方法是在使用不同输入视图数重建的 CBCT 图像上进行测试的。需要注意的是,为了确保比较的清晰性,我们省略了图中一些牙齿分割失败的结果(例如,来自 NAF 的 5 个和 10 个视图的结果)(即 Dice 分数小于 0.6)。可以看出,我们的方法明显优于所有竞争对手,这表明我们的重建方法非常实用,而且图像质量上乘。此外,我们在图 5 中提供了一个直观的例子,在图 5 中,我们对 5 个、10 个和 20 个视图的 Dice 分数分别为 0:88、0:90 和 0:92,而在这种特定情况下,地面实况 CBCT 分割的 Dice 分数为 0:95。虽然我们的 Dice 分数没有地面实况高,但也不相上下,这表明我们的方法在下游应用和实际临床使用中具有巨大的潜力。

4 结论

本文提出了一种用于稀疏视图 CBCT 重建的新型衰减场学习框架。通过从数据群体中学习先验知识,我们的方法无需进一步训练即可推广到其他患者,并能高效地解决稀疏视图输入问题,重建出高质量的 CBCT 图像。广泛的评估验证了我们的优越性,下游应用也证明了我们的方法在实际临床中的适用性。

  • 16
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值