本博客主要记录学习高翔老师视觉SLAM14讲的总结笔记,若有总结不对的地方,欢迎大家与我讨论。
一、相机分类
1.1 单目相机
- 缺失了一维信息数据,即深度
- 可以通过移动单目相机来估计运动和环境结构,即生成视差
- 单目SLAM估计的轨迹和地图与真实轨迹和地图相差一个因子,即尺度不确定性
1.2 双目相机
- 利用基线来估计深度,基线越宽,可测量的物体越远
- 计算量是双目的主要问题之一
- 克服了尺度不确定性
1.3 深度相机
- 一般通过红外结构光和TOF原理,通过硬件来计算深度
二、经典视觉SLAM框架
2.1 视觉里程计--图像特征提取与匹配
- 关心相邻图像之间的相机运动,即相邻时刻之间的运动和过去信息没有关系
- 由于只有局部信息,所以存在累计漂移,因此需要后端优化和回环检测来校正
2.2 后端优化--滤波与非线性优化
- 主要指处理SLAM过程中的噪声问题
- 从带噪声的数据中估计整个系统的状态,以及该状态的不确定性有多大,即最大后验概率估计
2.3 回环检测
- 主要解决位置估计随时间漂移的问题
2.4 建图
- 度量地图:稀疏与稠密
- 拓扑地图:Graph由节点和边组成
三、SLAM问题的数学表述
其中x表示位姿,u表示输入或传感器读入,z表示观察数据,y表示路标点,w和v表示噪声。根据传感器和运动模型的不同,该公式可参数化不同的形式。
SLAM的基本核心:由运动输入u和传感器读数z,来估计x和y的过程。