今天周一,这周准备刷完高翔的视觉SLAM课程前六章,并完成相对应的作业,任务艰巨,争取完成。在学完每章过后都会把今天学习的心得记下来方便日后进行回顾,第一讲的资料我放在文章的最后,方便大家下载。
第一讲 视觉SLAM:从理论到实践:
首先:SLAM是什么?
simultaneous localization and mapping 同时定位与地图构建
它主要解决两个问题:
1.我在什么地方? 就是定位
2.我周围的环境是什么样子的? 建图
这里我们就需要相机来获取信息,相机就是通过一定速率采集图像,形成视频,使用相机就可以通过二维像素点的形式来表示三维世界的信息。但是在这中间缺少了一个维度也就是最重要的维度-深度。
常用的相机主要是单目相机,双目相机,RGB-D相机;
他们之间的区别:
-
单目相机:把三维空间通过二维面来表示,这种情况下缺少了深度信息,深度信息必须要通过其他方式去获取,现在最好的方式就是通过运动来获取三维信息。
-
双目相机:是通过视差来计算深度信息,两个相机对同一物体的拍摄通过不同的角度获取不同的图像,经过相机的标定和算法可以计算出场景中物体的实际大小和距离。
-
RGB-D相机是通过红外结构光或者TOF原理来获取物体的深度信息,这种获取的方式比较直接,但是这种方式不能够在室外使用。
当然还有别的一些相机例如全景相机,但是实际上现在还处于研究阶段,并没有被大家所使用。
视觉SLAM框架
一个完整的slam框架主要包括:
前端: visual odometry
后端: optimization
回环:loop closing
建图:Mapping
针对SLAM的数学描述:
我们用运动方程和观测方程来描述SLAM的整个过程,这个过程中,我们已知Uk(我们给小车的运动信号),Z(k,j)也是知道的,这是我们使用传感器测到的数据,我们需要去求的xk和yi,分别对应着定位和环境 这个问题叫做状态估计问题,也是我们后面需要去解决的核心问题。
第一讲的资料链接:https://pan.baidu.com/s/17lhsDEk2tjp-q7pElniGPQ
提取码:4lqd