视觉slam14讲---相机与图像的问题

文章探讨了双目相机模型中的针孔相机原理,强调了相机坐标系、归一化坐标系和图像坐标系的区别。作者指出了在双目相机中右像素坐标的理解,以及求解深度Z时单位的一致性问题。提到了SGBM算法在求视差中的应用,以及极线约束在加速匹配过程中的作用。此外,还讨论了双目校正的重要性,确保对极线行对齐以简化匹配过程。
摘要由CSDN通过智能技术生成

这章的内容我感觉是相对比较简单的,主要想分享一下自己的一些疑惑和后面的解答,可能有点水

针孔相机模型

在相机中 K(相机内参) * 相机下归一化坐标点 = 像素点。

首先大家要搞清楚相机坐标系下 世界坐标系下 归一化坐标系 还有图像坐标系。其实分清楚以后就相对很明确。

首先讲的是双目相机模型,当时自己在纠结为什么 右像素坐标为什么是负的,是因为UR在的坐标系是右坐标系下 根据 u v的坐标方向,可能就认为ur是负坐标。?

但是一般坐标系u v坐标系不是左上角为原点嘛? 以圆心为目标的不是xy坐标系嘛。后面会有解决的

其实对于双目相机来说,成像平面肯定是要展平的想,两个平面,而成像点肯定是在相同的行上,不同的是横坐标。

而后面的求z的公式 我想一般想过的人都会觉得z的单位不对的把 安装公式z = fb/d f单位是m是焦距 不是fx 内参 fx = αf 。 b是双目相机的基线 也是测量的单位,也是m把 d = ul- ur 的话 单位肯定不能像素把,不然单位不统一啊,所以 我感觉肯定哪里出错了。

然后一般大家用这个公式的时候用的都是fx 而不是f 这样不就错了嘛 于是我相到 x 和u也是相差一个倍数α把,然后有平移 ,平移的话再d = ul- ur 再b中平移的量已经被减为0了。 所以我们一般用的是fx的话那我求的视差d的单位就应该是像素。 所以 我觉得再书中,用f 对应的话应该用xl xr来表示可能比较好理解。而求视差的算法求出的一般都是像素单位,所以再使用的过程中会用fx 而不是f。

这是我的理解。

https://www.likecs.com/show-204777434.html这是别人的

再双目中,求视差的算法一般是写好的把? 是需要自己求的 不然不能直接得到z

而再双目求视差中为了求得视差那么一定要有匹配点把

而对于双目相机来说,如何求的视差也是一个难题,一般是用sgbm算法来求视差的,求视差首先要求出匹配信息把,而对双目相机来说,他的匹配信息肯定不能像orb中这样繁琐把、,需要变快。

双目校正:(极线约束:空间中任意一点在图像平面上的投影点,必然处于由该点和两个摄像头中心组成的对极平面上。对于图像上的某一个特征点,其在另一个视图上的匹配点必处于对应的对极线上,这称为极线约束。极线约束使得特征匹配由二维搜索降低到一维搜索,从而大大加快计算速度,并且减少误匹配。)双目校正是根据摄像头标定后获得单目内参数据(焦距,成像原点,畸变参数)和双目相对位置关系(旋转矩阵和平移向量),分别对左右视图进行消除畸变和行对准,使得左右试图的成像原点坐标一致、两摄像头光轴平行、左右成像平面共面、对极线行对齐(使得两幅图像的对极线恰好在同一水平线上),这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需要对该行进行一维搜索即可匹配到对应点。

图像在计算机c++中存着的是一个矩阵形式。行是y 列是x

根据深度还原

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 《视觉SLAM十四》第三章主要介绍了视觉SLAM中的关键技术——特征提取和描述子。本章首先介绍了特征点的概念和特征点的选择原则。特征点即图像中具有鲁棒性和区分度的点,可以通过对其进行检测和描述来进行特征匹配和跟踪。在进行特征提取时,作者介绍了常见的特征检测算法,如Harris角点检测、SIFT和SURF算法等,并对其进行了比较和分析。 接着,本章详细阐述了特征描述子的概念和作用。特征描述子是对特征点周围区域的图像信息进行编码,以实现特征匹配和跟踪。常见的特征描述子包括SIFT、SURF和ORB等。作者从描述子的表示形式、计算方式和匹配方法等方面进行了介绍,并对它们进行了比较和评价。同时,还提到了基于二进制描述子的方法,如BRIEF、BRISK和FREAK等。 在特征匹配方面,本章介绍了特征描述子匹配的基本原理和流程。以基于特征点的视觉SLAM为例,作者详细解释了特征点的匹配过程,包括特征点的选择、特征点描述子匹配和筛选等步骤。并介绍了如何通过验证特征点的三角化和PnP求解来估计相机的位姿。 此外,本章还介绍了一些特定场景下的特征点选择和提取策略,如动态环境下的特征点追踪和关键帧选择等。 综上所述,《视觉SLAM十四》第三章主要介绍了特征提取和描述子在视觉SLAM中的重要性和应用。通过对特征点的检测和描述,可以实现特征匹配和跟踪,为后续的相机位姿估计和建图提供基础。该章内容详细且通俗易懂,对于学习和理解视觉SLAM有着重要的指导作用。 ### 回答2: 《视觉SLAM十四-Ch3》主要介绍了视觉SLAM(同时定位与建图)技术的基本原理和实现方法。本章主要涵盖了三维几何表示和变换、相机模型和相机姿态以及特征提取与匹配等内容。 首先,本章介绍了三维几何表示和变换的概念。通过介绍欧氏空间中的点、向量和坐标变换,深入解释了相机在三维空间中的位置和朝向的表示方式。同时,引入了齐次坐标和投影矩阵的概念,为后续的相机模型和姿态估计打下了基础。 其次,本章详细解了相机模型和相机姿态的原理与应用。其中,介绍了针孔相机模型,分析了图像坐标和相机坐标之间的映射关系。通过投影矩阵的推导,给出了透视投影和仿射投影的公式,并解释了相机焦距和主点的含义。此外,还介绍了如何通过计算相机的外参矩阵来估计相机的姿态,以及如何将图像坐标转换为相机坐标。 最后,本章介绍了特征提取与匹配的技术。首先,介绍了角点和边缘点的概念,以及如何利用差分和梯度计算来检测图像中的角点和边缘点。然后,介绍了如何通过特征描述符来表示图像中的特征点,并通过特征匹配算法找到两幅图像之间的对应关系。特征提取与匹配是视觉SLAM中非常重要的步骤,对于后续的相机定位和建图至关重要。 综上所述,《视觉SLAM十四-Ch3》通过系统地介绍了视觉SLAM技术的基本概念和实现方法,包括三维几何表示和变换、相机模型和相机姿态的原理与应用,以及特征提取与匹配的技术。这些内容为读者深入理解和掌握SLAM技术提供了很好的基础。 ### 回答3: 视觉SLAM(Simultaneous Localization and Mapping)是一种通过计算机视觉技术,实现机器智能的同时实时定位和地图构建的方法。在《视觉SLAM十四》第三中,主要介绍了视觉SLAM的基本概念和关键技术。 首先,解了视觉SLAM的理论基础,包括自我运动估计和地图构建两个部分。自我运动估计是通过相邻帧之间的视觉信息,计算相机在三维空间中的运动,从而实现机器的实时定位;地图构建是通过对场景中特征点的观测和跟踪,建立起一个三维空间中的地图。这两个过程相互影响,通过不断迭代优化,实现高精度的定位和地图构建。 接着,解了基于特征的视觉SLAM算法。特征提取与描述是建立视觉SLAM系统的关键步骤,通过提取场景中的特征点,并为其生成描述子,来实现特征点的匹配和跟踪。同时,还介绍了一些常用的特征点提取和匹配算法,如FAST、SIFT等。 在SLAM框架方面,本节还介绍了基于视觉的前端和后端优化。前端主要负责实时的特征跟踪和估计相机运动,后端则是通过优化技术,对前端输出的轨迹和地图进行优化求解,从而提高系统的精度和鲁棒性。 最后,本节提到了几个视觉SLAM的应用场景,如自主导航、增强现实等。这些应用对于实时高精度的定位和地图建立都有着很高的要求,因此,视觉SLAM的技术在这些领域有着广泛的应用前景。 总的来说,《视觉SLAM十四》第三视觉SLAM的基本概念和关键技术进行了系统的介绍。理论基础、特征提取与描述、SLAM框架和应用场景等方面的内容都给出了详细的解释和案例,有助于读者更好地理解和应用视觉SLAM技术。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值