官方给出的链接一共有两篇论文:
1.ElasticFusion: Dense SLAM Without A Pose Graph
2.ElasticFusion: Real-Time Dense SLAM and Light Source Estimation
ElasticFusion: Dense SLAM Without A Pose Graph
整体流程
1.输入深度图和RGB图,根据相机内参获取像素点对应的点云,进行采样,然后计算点云的法线;
2.因为3D重建是在实时采集的过程当中进行的,所以当前帧跟上一帧之间的变换不大(变换大的化就先要进行粗检测,比如3D模板匹配),所以上一帧(映射到全局坐标系的第一帧的点云)跟当前帧的点云进行ICP配准,求取位姿变换R、T,在迭代的过程中最小化的不止几何差异,还有RGB颜色差异。
其中几何误差,采用的是点到平面的误差,如下图所示:
它摒弃了点到点的距离的位置计算方式,只保留沿法线方向的距离,具体如下图表示的所示:
像素差异的计算方式如下:
最终的error是二者的按一定比例的结合,如下图所示:
使用非线性最小二乘法求解error最小的位姿;
3.每帧图片当中肯定有重复的点,如果不加以处理的化,肯定会有重影。
局部回环检测、全局回环检测可以将重复的点进行配准
对nodes进行约束,减少累计误差。