SLAM:Simultaneous Localization and Mapping 同时定位与地图构建
搭载特定传感器的主体,在没有环境先验信息的情况下,于运动过程中建立环境的模型,同时估计自己的运动。
视觉SLAM:以相机为主要传感器的SLAM
问题:从图像中估计相机的运动以及环境的情况
SLAM解决的问题:定位、建图
How to do SLAM:
两类传感器:
安装于环境中的:二维码Marker、GPS、导轨、磁条
携带于机器人本体上的IMU、激光、相机
各类相机的主要区别:
单目:没有深度,必须通过移动相机产生深度(成像和场景有几何关系,近处的物体图像运动的 快,远处物体图像运动的慢,由此推断出距离)
双目:通过视觉计算深度(左右眼的微小差异判断远近,同样,近处物体变化大,远处物体变化 小,推算距离计算量非常大)
RGBD:通过物理方法测量深度(物理手段测量深度、结构光ToF、主动测量、功耗大、深度值 较准确、量程小、易受干扰)
视觉SLAM框架:
前端:VO
后端:Optimization
回环检测:Loop Closing
建图:Mapping
整体视觉SLAM流程图:
传感器数据-----》前端视觉里程计--------》后端非线性优化--------》建图