最近在读三维稠密恢复。要从数万的点云信息中去恢复百倍以上的物体表面像素是非常有想象力的挑战。GAN实现物体像素的填充,技术的成功想到用深度学习方法去实现像素的添加。这里直接给出MVG这篇非常好的论文。
多视角场景点云重建模型PointMVS:http://hansf.me/projects/PMVSNet/
参考文章:https://www.sohu.com/a/339951806_610522
重要思想和步骤梳理:
PointFlow是这篇文章中新颖的迭代深度优化方法。在已知相机参数的情况下,可以将深度图反投影成点云。针对每个点,优化的目标是通过对各个视角下邻近点的观察,估计这个点在相机方向与基准点云表面的偏移,并最终迫使点“流向(flow to)”目标位置,这个方法就称为PointFlow。
PointMVS区别于先前利用cost volum来进行多视角处理的方法,直接基于点云的方式对场景进行处理。从过由粗到细的迭代优化过程,充分结合了几何先验信息和2D纹理信息来来增强点云特征,并利用图网络的来对深度的残差进行有效估计。这种由粗到精的迭代结构获得非常好的重建精度。PointFlow方法主要由假设点生成、边缘卷积、流预测和上采样迭代优化等四部分构成。
利用代价空间进行计算的深度图精度受限于3D cost volume的分辨率。为了进一步利用图像特征增强的点云网络来提升深度图的分辨率,
直接利用抽取的图像特征对每个点的位移进行抽取是比较困难的,由于透视变换的存在2D特征图无法有效反映3D欧氏空间中的空间结构特性,所以PointFlow提出了在参考相机方向上设置一系列假设点。红色点是反投影点&#