三维重建思路其实非常简单:假设你有一个深度相机,你拿着相机扫一个静态物体,相机每次可以给你点云和当前帧与上一帧的相对位姿,那么你把所有点云全部转换到同一个坐标系下面,然后生成mesh……这就是三维重建了。
但是现实往往比较骨感(devil in the details),三维重建的工作基本上就变成了以下几个方面:
数据源方面
深度相机没法给你相对位姿或者位姿不准?点云质量和精度不够?相机标定也不准?
是2D相机的话,还得通过SLAM等措施来提供三维点(一言难尽)
点云配准方面……
Mesh生成处理方面要快还是要质量高?去噪,补洞,平滑,简化?等等后期效果方面融合Color信息?Model based refine ?等等
动态场景方面动态场景模型更新等问题这上面任意一个小点都可以花上很多时间,对编码能力要求也会比较高,对于初学者的建议是学习好多视几何基础,先利用仿真数据跑通上面说的主线流程,再结合具体的开源项目去理解算法,再结合实际传感器和问题去改善或者提出新的算法,在这个过程中要善用一些可视化工具比如Meshlab, cloudcompare, matplotlib.pyplot等,可以节约大量时间。
三维重建
最新推荐文章于 2024-05-24 09:51:23 发布