视觉SLAM十四讲 -- 第二讲笔记

视觉SLAM十四讲 – 第二讲笔记

2.1 引子

slam任务:

  • 建图:估计环境
  • 定位:估计自身状态

SLAM需要感知外部环境使用,携带传感器。视觉SLAM中使用相机。

  • 单目相机:单张图片无法获得深度信息,要动过移动相机形成视差来估计深度。同时,单目相机存在尺度不确定性。
  • 双目相机:通过基线(两摄像头之间的距离)估计深度。基线越大,可测量的距离越远。深度量程和精度受基线和分辨率限制,计算量消耗大。
  • 深度相机:使用ToF、结构光等物理手段,适用于室内。

2.2 经典视觉SLAM框架

组成模块:

  • 传感器信息读取
  • 视觉里程计(visual odometrym/OV/前端)
  • 后端优化
  • 回环检测
  • 建图

目标得到:运动轨迹、地图

2.2.1 视觉里程计

仅使用相邻图像帧,估计相机的运动和局部场景。
连续时刻的相机运动构成运动轨迹,各时刻的空间点位置构成地图。
存在问题:误差的累积漂移。
方法:图像特征提取、匹配等

2.2.2 后端优化

处理SLAM过程中的噪声问题。从带噪声的数据中估计整个系统的状态,以及这个状态估计的不确定性。
状态:机器人的轨迹估计和建图估计
方法:吕布、非线性优化

2.2.3 回环检测

判断是否回到了原点(已走过的某点)。若回到原点,则后端调整轨迹和地图,使其符合回环检测。
解决:位置估计随时间漂移。
方案:计算图像数据的相似性。

2.2.4 建图

构建对环境的描述。

  • 度量地图:matrix存储
    • 稀疏地图:仅存储路标
    • 稠密地图:使用grid/voxel
  • 拓扑地图:graph存储

SLAM问题的数学表达

表示约束

离散运动时刻: t = 1 , … , k t=1,…,k t=1,,k
各时刻的位置估计: x 1 , … , x k x_1,…,x_k x1,,xk
可观测的路标点:

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值