没什么好说的,最近在ROS下做视觉计算。双目摄像机导航。推荐高翔的《视觉SLAM十四讲》。知识点很全,推导也很详细。随便写一下吧,但项目压在手里,很烦。想起来就写一点笔记。
视觉传感器的分类
视觉传感器分为主要的三种吧。单目相机(Monocular),双目摄像机(stereo),单目加红外(RGBD)。
单目相机
单目相机便宜。但反解决自身姿态会很麻烦。一般用对极几何计算摄像的旋转矩阵R,平移矩阵T。通过三角计算可以计算得到。但这里就有一个问题。在相机纯旋转下,无法计算。所以你在跑单目相机的slam时,初始化第一帧图像一定需要平移一下摄像头。单目相机很多,随便一个网络相机就可做
双目相机
双目相机,emmm。我觉得是一个坑。但很符合人类认知世界的方式。人通过双眼视差理解物体远近,不可能精确获得物体深度信息。但是我只能说这个会比RGBD坑一点。因为视差图很消耗计算资源。而且获得深度图用可能穿过实际物体。这是有像素误匹配导致深度计算过大。双目相机,zed,小觅相机(mynteye)
RGBD
采用RGB相机和红外结构光计算物体深度和获取图像。由于红外结构光通过物理方法计算深度,是不会穿过墙面,但任何传感器实际使用都会存在噪声。kinect或其他3D体感相机都可。
视觉特征点
常用视觉特征点计算SIFT,SUFT。
检测区域 | SIFT | SURF |
---|