视觉slam14讲之相机模型

1. 单目相机模型

    a. 首先, 世界坐标系下有一个固定的点P,世界坐标为Pw。
    b. 由于相机在运动,它的运动由R,t或变换矩阵T描述。P的相机坐标为P’ = R*Pw + t。
    c. 这时的P’仍有X, Y, Z三个量,把他们投影到归一化平面Z=1上,得到P的归一化相机坐标:Pc = [X/Z,Y/Z, 1]T.
    d. 最后,P的归一化坐标经过内参后,对应到它的像素坐标:Puv = KPc。
其中共谈到了4种坐标:世界坐标,相机坐标,归一化相机坐标和像素坐标。

2. 双目相机模型

      明显上述有缺陷, 仅根据一个像素,我们是无法确定这个空间点的具体位置的,因为从相机光心到归一化平面连线上的所有点,都可以投影至该像素上。这时我们需要它的深度,正如人眼通过视差来判断物体与我们之间的距离,双目相机一样如此。
这里写图片描述
      这个就是双目相机的几何模型,Ol,Or是两个相机。Pl, Pr是成像点,P点是物体。由上图可得出以下公式:
z-f : z = (b - uL + uR) :b
稍加整理:
z = fb/d d = uL - uR
这里,d为左右图的横坐标之差,称为视差。 根据视差,我们可以估计一个像素与相机之间的距离。视差与距离成反比。由于视差最小为一个像素,于是双目的深度存在一个理论的最大值,由fb确定。事实上,视差公式推导简单,但视差d的计算对与计算机来说却比较困难。使用到GPU或FPGA来计算

3.RGB-D(深度)相机模型

目前根据原理分为两类:

    a. 通过红外结构光( Structured Light )来测量像素距离。例:Kinect 1代,Project Tango 1代,Inter RealSense等。由光结构的偏移计算
    b. 通过飞行时间法( Time-of-flight,TOF )原理测量像素距离。例:Kinect 2代和一些现有的ToF传感器等。类似激光传感器,不过激光传感器是通过逐点扫描来获取距离,而ToF相机则可以获得整个图像的像素深度。
    c . RGB-D相机自己完成深度与彩色图像素之间的匹配,输出一一对应的彩色图和深度图。我们可以在同一图像位置,读取到色彩信息和距离信息,计算像素的3D相机坐标,生成点云( Point Cloud )。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值