SLAM入门-相机成像原理与公式推导

2 篇文章 0 订阅
1 篇文章 0 订阅

 

Pinhole Camera Model

  1. 如上图所示, 现实世界中的3D object成像在相机的成像平面image plane中, 由针孔成像的对称性, 可以画出image plane的对称虚平面virtual image plane
  2. 为了简化, 下面都使用 virtual image plane代替 image plane, 毕竟这个平面内部的像素坐标值在两个平面都是一样的;
  3. 接下来就是初中几何相似性的原理:

数学表达

  1. 如上图所示, 现实世界坐标P(X,Y,Z), 映射到成像平面中作为为p(x,y), f为焦距focal length, O为相机光心;
  2. 由三角形相似性可知: 

$$
\frac{X}{Z}=\frac{x}{f}
\quad \frac{Y}{Z}=\frac{y}{f}
$$

从而有:

$$
x = f \frac{X}{Z} \\
y = f \frac{Y}{Z}
$$

进一步修正

  1. 上面推导假设相机像素在x轴和y轴上像素点大小一样的(即正方形), 但实际中这两个值往往并不相同, 这样计算得到的坐标(x,y)要重写为如下公式:

$$
x = kf \frac{X}{Z} = f_x \frac{X}{Z} \\
y = lf \frac{Y}{Z} = f_y \frac{Y}{Z}
$$ 

再进一步修正

  1. 上面公式还假设了相机光心(即上图c点)是100%在光轴optical axis OZ线上, 但实际上由于制造工艺限制, 往往会存在一些误差, 在x轴和y轴上分别为 cx, cy, 体现在公式就需要对坐标(x,y)再做一些平移修正, 如下公式;
  2. fx,fy,cx,cyfx,fy,cx,cy这四个参数定义为相机的内参矩阵CC,也就是相机做好之后就不会变的参数;

$$
x = kf \frac{X}{Z} + c_x = f_x \frac{X}{Z} + c_x  \\
y = lf \frac{Y}{Z} + c_y = f_y \frac{Y}{Z}  + c_y
$$ 

继续前进

  1. 一般情况下, 变量命名通常把真实世界的坐标记为(x,y,z) ,对应上文中的(X,Y,Z), 而把成像平面上的坐标记为(u,v), 对应上文中的(x,y), 根据新的变量名, 可以改写公式;
  2. 此外, 一般深度相机获取到的数据保存时, 保存的距离坐标d其实都是真实距离乘以一个缩放因子s后再保存的, s大概是1000 .  因此在把z代入公式进行时, 要先得到z的真实的未缩放值:  z=d/s;
  3. 根据上述1,2,  新的公式如下:

$$
u =  f_x \frac{x}{z} + c_x  \\
v =  f_y \frac{y}{z}  + c_y
z = \frac{d}{s}
$$ 

但往往实际情况是相机测量后的(u,v,d)坐标已知, 需要反推出真实世界坐标(x, y, z), 因此上述公式变形为用(u,v,d)表示(x,y,z):

$$
z = d s  \\
x = \frac{(u-c_x)z}{f_x}  \\
y = \frac{(v-c_y)z}{f_y}  \\
$$

写成矩阵形式

$$
s \cdot \left[ \begin{array}{l}{u} \\ {v} \\ {1}\end{array}\right]=C \cdot\left(R \cdot \left[ \begin{array}{l}{x} \\ {y} \\ {z}\end{array}\right]+t\right)
$$

  1. 其中,R和t是相机的姿态。R代表旋转矩阵,t代表位移矢量。

 

使用PCL把点云画出来

备注: 代码copy了高博的PCL点云代码, 其中的数据data部分, 可以从高博的github地址下载: 

https://github.com/gaoxiang12/rgbd-slam-tutorial-gx/tree/master/part%20II/data

 

// C++ 标准库
#include <iostream>
#include <string>
using namespace std;

// OpenCV 库
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>

// PCL 库
#include <pcl/io/pcd_io.h>
#include <pcl/point_types.h>

// 定义点云类型
typedef pcl::PointXYZRGBA PointT;
typedef pcl::PointCloud<PointT> PointCloud; 

// 相机内参
const double camera_factor = 1000;
const double camera_cx = 325.5;
const double camera_cy = 253.5;
const double camera_fx = 518.0;
const double camera_fy = 519.0;

// 主函数 
int main( int argc, char** argv )
{
    // 读取./data/rgb.png和./data/depth.png,并转化为点云

    // 图像矩阵
    cv::Mat rgb, depth;
    // 使用cv::imread()来读取图像
    // API: http://docs.opencv.org/modules/highgui/doc/reading_and_writing_images_and_video.html?highlight=imread#cv2.imread
    rgb = cv::imread( "./data/rgb.png" );
    // rgb 图像是8UC3的彩色图像
    // depth 是16UC1的单通道图像,注意flags设置-1,表示读取原始数据不做任何修改
    depth = cv::imread( "./data/depth.png", -1 );

    // 点云变量
    // 使用智能指针,创建一个空点云。这种指针用完会自动释放。
    PointCloud::Ptr cloud ( new PointCloud );
    // 遍历深度图
    for (int m = 0; m < depth.rows; m++)
        for (int n=0; n < depth.cols; n++)
        {
            // 获取深度图中(m,n)处的值
            ushort d = depth.ptr<ushort>(m)[n];
            // d 可能没有值,若如此,跳过此点
            if (d == 0)
                continue;
            // d 存在值,则向点云增加一个点
            PointT p;

            // 计算这个点的空间坐标
            p.z = double(d) / camera_factor;
            p.x = (n - camera_cx) * p.z / camera_fx;
            p.y = (m - camera_cy) * p.z / camera_fy;
            
            // 从rgb图像中获取它的颜色
            // rgb是三通道的BGR格式图,所以按下面的顺序获取颜色
            p.b = rgb.ptr<uchar>(m)[n*3];
            p.g = rgb.ptr<uchar>(m)[n*3+1];
            p.r = rgb.ptr<uchar>(m)[n*3+2];

            // 把p加入到点云中
            cloud->points.push_back( p );
        }
    // 设置并保存点云
    cloud->height = 1;
    cloud->width = cloud->points.size();
    cout<<"point cloud size = "<<cloud->points.size()<<endl;
    cloud->is_dense = false;
    pcl::io::savePCDFile( "./pointcloud.pcd", *cloud );
    // 清除数据并退出
    cloud->points.clear();
    cout<<"Point cloud saved."<<endl;
    return 0;
}

 

  • 3
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 适合毕业设计、课程设计作业。这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。 所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答!
ORB-SLAM2是一种基于二维图像的实时单目视觉SLAM系统,可以在没有先验地图的情况下,从单个摄像头的输入中实时定位和建立环境模型。为了更好地理解ORB-SLAM2的原理和代码实现,我们需要逐行分析其核心算法。 ORB-SLAM2的主要原理是通过特征提取,特征匹配和位姿估计来实现定位和建图。在代码中,我们可以看到一些关键的数据结构和函数调用,这些都是实现这些原理的关键。 首先,ORB-SLAM2使用FAST特征检测器在图像中检测关键点。这些关键点代表图像中的有趣区域。然后,使用ORB描述符对关键点进行描述。ORB描述符使用二进制位串来表示关键点周围的特征。 然后,ORB-SLAM2使用词袋法(Bag-of-Words)模型来进行特征匹配。它首先通过建立一个词典来表示所有关键点的描述符。然后,使用词袋模型来计算图像之间的相似度,从而找到匹配的关键点。 接下来,ORB-SLAM2使用RANSAC算法来估计两个图像之间的相对位姿。RANSAC算法通过迭代随机采样的方式来筛选出最佳的匹配关系,从而得到相对位姿估计。 最后,ORB-SLAM2使用优化算法(如g2o)来进行位姿图优化,从而更精确地估计相机的位姿。通过优化,ORB-SLAM2能够减少位置漂移,并在动态环境下更好地跟踪相机的位置。 总的来说,ORB-SLAM2通过特征提取、特征匹配和位姿估计实现实时单目视觉SLAM。核心代码实现了特征检测、描述符提取、特征匹配、RANSAC算法和图优化等关键步骤。了解这些原理和代码实现,可以帮助我们更好地理解ORB-SLAM2系统背后的工作原理

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值