最近看了一些关于SLAM的书和博客,个人感觉大概的框架(rgbdslam)已经差不多了,在这记录一下
SLAM分类
根据传感器,可以分为
*雷达,又分二维三维
*摄像头,也就是视觉
*其他与混合
我最近看的是视觉SLAM所以以下展开的介绍也都是视觉部分的,更确切的说是rgbd的.
视觉SLAM又分为:
单目SLAM,顾名思义,一个摄像头
双目SLAM,两个摄像头,二者相对姿态距离固定
rgbdSLAM,深度摄像头,根据飞行时间(TOF)的原理,可以得到每个像素点到相机距离
由rgbd相机到点云
由于我看的是基于rgbd的SLAM(拜半闲居士所赐),所以以下基本就是rgbd的啦~
单张照片到点云
1,原理
相机会提供rgb和depth,根据小孔成像原理,可以得到一组在当前相机坐标下的一组点云.具体原理请看半闲居士,链接http://www.cnblogs.com/gaoxiang12/p/4652478.html
2,编程
仅提几个要点,会用到点云库,PCL,还有开源计算机视觉库opencv,其中包含了很多函数和需要的结构,认真读一读就差不多可以大概明白.可以参考上面半闲居士的链接,或者我作为一个小白的解读http:/