RGBD视觉SLAM,创新点在于自适应的位姿估计和关键帧选择策略。
前端部分
视觉里程计
使用点到平面icp和光度误差分别计算代价函数并估计位姿。使用匹配代价作为权重融合两个位姿。
特征提取和匹配
提取SIFT特征,利用词袋构建进行特征和图像匹配,构建关联矩阵(affinity matrix),匹配关系被用于关键帧选取。
后端优化
关键帧选取
基于特征匹配数量形成帧和帧之间的约束,所有帧和约束构成了一个无向图,本文认为关键帧集合应该满足以下条件,关键帧和与关键帧相邻的点的集合等于帧的集合,关键帧与其他关键帧相邻,所有关键帧构成一个连通图。
优化
基于词袋进行回环检测,使用Ceres优化器对全局位姿进行优化。
实验结果
在TUM数据集上进行了测试,在特征丰富的环境中效果不如ORB-SLAM2,但是考虑所有轨迹效果不错。算法不能实时运行。