关注公众号,发现CV技术之美
本文为粉丝投稿,原文链接:https://zhuanlan.zhihu.com/p/702702109。
本文介绍我们在 CVPR 2024 上的新工作《Structure-Aware Sparse-View X-ray 3D Reconstruction》。
![1a6f85e008c072dc8bd03e83d9ecabee.png](https://img-blog.csdnimg.cn/img_convert/1a6f85e008c072dc8bd03e83d9ecabee.png)
本文提出了一种用于稀疏视角下 X 光三维重建(如下边的 GIF 所示)的 NeRF 方法。具体而言,主要做两个任务。一是 X 光的新视角合成 (Novel View Synthesis, NVS),二是 CT 重建,可以简单理解为体密度的重建。后边会详细介绍。
paper: https://arxiv.org/abs/2311.10959
code: https://github.com/caiyuanhao1998/SAX-NeRF
video: https://www.youtube.com/watch?v=oVVUaBY61eo
leaderboard: https://paperswithcode.com/dataset/x3d
先给大家看一个在新视角合成任务上的性能对比图:
![43113b3b2ea38d4964f66c5e2cf25427.png](https://img-blog.csdnimg.cn/img_convert/43113b3b2ea38d4964f66c5e2cf25427.png)
目前所有的训练测试代码、预训练权重、训练日志、数据、测试结果均已开源。此外,我们已经在 paper with code 设置好了 leaderboard, 欢迎大家来提交结果。我们将开源的 github repo 拓展成了一个支持 9 类算法的工具包方便大家的科研工作。除此之外,我还把数据可视化的代码,和造数据的代码也一起公开了,以方便有条件的可以接触到CT数据的朋友可以在自己搜集的数据上开展研究。欢迎来用 :)
X 光三维重建任务介绍
众所周知,X 光由于有着十分强大的穿透力而被广泛地应用于医疗、安检、考古、生物、工业检测等场景的透射成像。然而,X 光的辐射作用对人体是有害的,受试者与测试者都会或多或少地受到影响。为了减少 X 光对人体的伤害,人们开始研究稀疏视角下的 X 光重建从而降低在 X 光中的暴露时间。这主要包含了两个子任务:
新视角合成,即从一个被扫描物体的一些已拍摄的视角来合成出新的没有被拍摄过的视角下该物体的投影。
CT 重建。即从多视角的 X 光投影中恢复出密集的三维 CT 体辐射密度 (volume radiodensity)。
辐射密度刻画的是当 X 光穿透物体时,X 光被吸收或者阻挡的程度大小。如图 2 所示,自然光成像主要靠的是光线在物体表面的反射。而 X 光成像主要依靠的是 X 光穿透物体后被吸收或阻挡。换句话说,自然光成像关注并捕获的是物体表面的信息如纹理颜色等,而 X 光成像关注的更多的是物体内部的结构和材质。
![5b80071e8e05c066bcccdd01cf0e386d.png](https://img-blog.csdnimg.cn/img_convert/5b80071e8e05c066bcccdd01cf0e386d.png)
也正是因为自然光成像和 X 光成像之间的显著差异,自然光下的 NeRF 方法以及对应的公式并不适用于 X 光。本文针对 X 光的三维重建问题展开研究,做出了以下四点贡献:
本文提出了一套全新的能够同时做 X 光新视角合成与 CT 成像的 NeRF 框架,名为 SAX-NeRF。该框架的训练不需要用的 CT 作为监督信号,只使用 X 光片即可。
本文设计了一种新的分段式 Transformer,名为 Lineformer,可以捕获成像物体在三维空间中的复杂的内部结构。据我们所指,我们的 Lineformer 是首个将 Transformer 应用于 X 光渲染的 Transformer。
本文提出了一种新型的射线采样策略,名为 MLG sampling,可以从 X 光片上提取出局部和全局的信息。
本文搜集了首个大规模的 X 光三维重建数据集,涵盖医疗、生物、安检、工业领域。同时,我们设计的算法在这个数据集上取得了当前最好效果,在 X 光新视角合成和 CT 重建两大任务上比之前的最好方法要高出 12.56 和 2.49 dB。
空间坐标系的转换
我们在圆形扫描轨迹锥形 X 光束扫描(circular cone-beam X-ray scanning)场景下研究三维重建问题。空间坐标系的变换关系如图 3 所示。被扫描物体的中心 O 为世界坐标系的原点。扫描仪的中心 S 为相机坐标系的中心。探测器 D 的左上角为图像坐标系的原点。整个空间坐标系的变换遵循 OpenCV 三维视觉的标准。
![72c2e946b34bd1e9b3fac3c434c96c98.png](https://img-blog.csdnimg.cn/img_convert/72c2e946b34bd1e9b3fac3c434c96c98.png)
本文方法
1 NeRF 从自然光成像到 X 光成像
在自然光成像中,NeRF采用一个 MLP 来拟合的是空间中点的位置 (x,y,z) 和视角 (, ) 到该点的颜色 (R,G,B) 和体密度 () 的隐式映射:
![ee141b065d34bc137fad83e7bf08d087.png](https://img-blog.csdnimg.cn/img_convert/ee141b065d34bc137fad83e7bf08d087.png)
而在 X 光成像中,并不关注颜色信息,只需要重建出辐射密度 。同时我们注意到辐射密度属性与观测的视角无关。因此,我们指出,X 光下的 NeRF 公式应当为:
![71ddc4c22bf8bedc0843873c70dc1ee6.png](https://img-blog.csdnimg.cn/img_convert/71ddc4c22bf8bedc0843873c70dc1ee6.png)
其中的 表示我们 Lineformer 的可学习参数。根据 Beer-Lambert 规则,一条 X 光射线的强度会沿着它所穿过的物体的辐射密度的积分而呈指数型衰减。如下公式所示:
![6adcb97cb2b3ae4d4e5a81e3939d0514.png](https://img-blog.csdnimg.cn/img_convert/6adcb97cb2b3ae4d4e5a81e3939d0514.png)
将公式 (3)中的积分离散化,同时将其中的 用我们 Lineformer 预测的 替代便可得到预测的 X 光强度,如公式(4)所示:
![2b2ae84aa679ceb13b36485fabb0dd45.png](https://img-blog.csdnimg.cn/img_convert/2b2ae84aa679ceb13b36485fabb0dd45.png)
我们的训练监督目标是预测的 X 光强度与真实的 X 光强度之间的均方误差:
![2c777692b979ac25c817c92e1b44857a.png](https://img-blog.csdnimg.cn/img_convert/2c777692b979ac25c817c92e1b44857a.png)
2 Lineformer — 分段式 Transformer
我们注意到 X 光的成像过程是沿着穿透物体被吸收或者阻挡,成像物体不同部分的结构和材质存在差异,因此 X 光被吸收的程度也不一致。然而之前的 NeRF 类方法大都使用很常规的 MLP 网络平等地对待沿着射线上的采样点。如果直接采用 MLP 来拟合公式(3)的话,那 X 光成像的重要性质便被忽略了,难以取得很好的效果。基于此,我们提出了一种新型的分段式 Transformer (Line Segment-based Transformer,简称 Lineformer)来拟合 X 光在穿透不同结构时的衰减。
我们的算法框架如图 4 所示。我们首先采用 MLP sampling 策略采样出一个 batch 的 X 光射线 。对每一条射线,我们采出一组三维点的位置 。将 通过一个哈希编码器 得到点特征 。然后 经过 4 个分段式注意力块(Line Segment-based Attention Block,简称为 LSAB)与两层全连接层便可得到这些点的辐射密度 。
![24aec1cab4a68db9a75a8d9ae56c13a2.png](https://img-blog.csdnimg.cn/img_convert/24aec1cab4a68db9a75a8d9ae56c13a2.png)
LSAB 中最核心的模块是分段式的多头自注意力机制(Line Segment-based Multi-head Self-Attention,LS-MSA),其结构如图 4 (c)所示。将输入的点特征记为 ,将其分为 M 段:
![d337e9432fec5ba783994f7d46802f38.png](https://img-blog.csdnimg.cn/img_convert/d337e9432fec5ba783994f7d46802f38.png)
其中的 。然后 会被线性地投影到 、 、 :
![7e452d17a6398c84ad89b6d81c775916.png](https://img-blog.csdnimg.cn/img_convert/7e452d17a6398c84ad89b6d81c775916.png)
然后将 、 、 沿着通道维度均匀地分成 k 个头:
![e0c4d058bbf95668a794b89a0cf9077c.png](https://img-blog.csdnimg.cn/img_convert/e0c4d058bbf95668a794b89a0cf9077c.png)
然后在每一个头内计算自相似注意力 如下:
![68a9718e2a7c4f98a868051b4c08b9be.png](https://img-blog.csdnimg.cn/img_convert/68a9718e2a7c4f98a868051b4c08b9be.png)
然后将计算结果拼接起来,通过一个全连接层后与一个位置编码 相加后得到一段的输出:
![43a7a78471e78f90225ccac88f4cc1bd.png](https://img-blog.csdnimg.cn/img_convert/43a7a78471e78f90225ccac88f4cc1bd.png)
将 M 段输出拼接起来便得到总的输出:
![a40a46f47a96700742b28141a14543ad.png](https://img-blog.csdnimg.cn/img_convert/a40a46f47a96700742b28141a14543ad.png)
分析我们的 LS-MSA 计算复杂度如下:
![ad8c00d5a26fd879a8d64c4c457b364c.png](https://img-blog.csdnimg.cn/img_convert/ad8c00d5a26fd879a8d64c4c457b364c.png)
与采样的点数 N 呈线性相关。对比全局多头自注意力机制的计算复杂度:
![3c85d046b48b8457307614f666cf7462.png](https://img-blog.csdnimg.cn/img_convert/3c85d046b48b8457307614f666cf7462.png)
与采样的点数 N 呈二次相关。因此我们的方法计算量比常规的 Transformer 要小得多。
3 X 射线采样策略
由于 RGB 成像中信息普遍比较密集,即一张 RGB 图像中几乎每一个像素都传递信息。因此,RGB NeRF 在采射线时通常会使用随机的方式在图像上采集一批像素点,如图5 (a) 中的蓝色像素所示,每一个像素点对应一条射线。然而这种射线采样的策略并不适用于 X 光图片,因为 X 光片有着较大的空间稀疏性。如果随机采样的话,可能有一些采样点不落在成像区域,如图 5 (a) 中的像素点 。为了解决这个问题,我们设计了一种高效的射线
![4c8e14fb018286eb763ccdd86641e345.png](https://img-blog.csdnimg.cn/img_convert/4c8e14fb018286eb763ccdd86641e345.png)
采样策略,名为 MLG sampling,如图 (b) 所示。首先,我们用一个二值化的掩膜将成像区域分割出来。然后我们将整个图像分成互不重叠的小方块。然后我们随机抽选 M 个完全落在成像区域的小方块,取出小方块内所有的像素对应的射线。在成像区域的其他位置(除开被选取的小方块外),我们还再继续抽取 N 个像素点对应的射线。将两次抽取的射线组成一个 ray batch 用作训练。如此采样得到的射线首先全都穿透被扫描物体,捕获到被扫描物体的辐射密度信息。同时成块的区域还有着丰富的语义上下文信息以帮助三维重建。
实验结果
1 新视角合成
![7239d26eb667e14bce4684824b1c0ec7.png](https://img-blog.csdnimg.cn/img_convert/7239d26eb667e14bce4684824b1c0ec7.png)
![e786ad96ca9dee7ed58fb29450d23872.png](https://img-blog.csdnimg.cn/img_convert/e786ad96ca9dee7ed58fb29450d23872.png)
新视角合成任务上的定量指标和视觉对比分别如表 1 和图 6 所示。我们的方法比之前最好方法还要高出 12.56 dB。
2 CT 图像重建
![68f2952f7d1e16635e5b36bc2e9bada0.png](https://img-blog.csdnimg.cn/img_convert/68f2952f7d1e16635e5b36bc2e9bada0.png)
![de9ed5aa38127e32334a7ee46438c7e7.png](https://img-blog.csdnimg.cn/img_convert/de9ed5aa38127e32334a7ee46438c7e7.png)
CT 图像重建的定量指标和视觉对比分别如表 2 与图 7 所示。我们的方法比之前最好的方法要高出 2.5 dB。
总结与后记
本文针对 X 光三维重建问题,设计了一套基于 NeRF 的可同时进行 X 光新视角合成与 CT 重建的算法框架 SAX-NeRF。搜集了一个大规模的 X 光三维重建数据集 X3D。目前我已经将开源的 github repo 做成了一套相对完善的 codebase,支持 9 类算法,包含了数据生成、可视化的辅助功能函数代码。欢迎大家来用 :)
另外,我会去西雅图参加今年的 CVPR 2024。我们的 poster 的位置在 Arch 4A-E Poster #147,时间是西雅图当地时间 6 月 20 日的上午 10 点半到 12 点半,欢迎大家来找我玩 :)
我现在在 Adobe (San Jose) 实习,Adobe 的小伙伴也可以来 East Tower 的 14 楼找我聊天 :)
最新 AI 进展报道
请联系:amos@52cv.net
END
欢迎加入「三维重建」交流群👇备注:3D