使用opencv手写点云投影函数

原理

给定内参矩阵 K ∈ R 3 × 3 K\in R^{3\times3} KR3×3,外参矩阵 T = [ R , t ] , R ∈ S O ( 3 ) , t ∈ R 3 T=[R,t],R\in SO(3), t\in\mathbb{R}^3 T=[R,t],RSO(3),tR3,以及点云 P P P,投影到图像平面中
对于每个点 p ∈ P p\in P pP,其相机坐标系中的坐标计算公式为 p 2 d = K ∗ [ R ∣ t ] ∗ p ~ p_{2d} = K*[R|t]*\tilde{p} p2d=K[Rt]p~,再进行归一化即可得到像素坐标

代码

#include <opencv/opencv.hpp>
#include <iostream>
#include <pcl/io/pcd_io.h>
#include <pcl/point_cloud.h>
#include <pcl/point_types.h>
#include <pcl/common/common.h>

int main()
{
	pcl::PointCloud<pcl::PointXYZ>::Ptr pcd(new pcl::PointCloud<pcl::PointXYZ>());
	pcl::io::loadPCDFile<pcl::PointXYZ>("pointcloud.pcd", *pcd);
    cv::Mat R = (cv::Mat_<double>(3,3) << 0.0, -1.0, 0.0,
        0.0, 0.0, -1.0, 
        1.0, 0.0, 0.0);
        
    cv::Mat t = (cv::Mat_<double>(3,1) << 0,0,0);

    cv::Mat K = (cv::Mat_<double>(3,3) << 718.8560, 0.0, 607.1928,
        0.0, 718.8560, 185.2157,
        0.0, 0.0, 1.0);
    cv::Mat distCoeffs = cv::Mat::zeros(1, 5, CV_64F);
    
    cv::Mat Rt;
    cv::hconcat(R,t,Rt);
    cv::Mat P = K * Rt;
    cv::Mat image = cv::Mat::zeros(height, width, CV_8UC3);

    for(const auto & point : pcd.points)
    {
        cv::Mat pointHomo = (cv::Mat_<double>(4,1) << point.x, point.y, point.z, 1.0);
        cv::Mat pixel_2d = P * pointHomo;
        cv::Point2d imagePoint(pixel_2d.at<double>(0, 0) / pixel_2d.at<double>(2, 0),
                           pixel_2d.at<double>(1, 0) / pixel_2d.at<double>(2, 0));

        if (imagePoint.x >= 0 && imagePoint.x < image.cols && imagePoint.y >= 0 && imagePoint.y < image.rows) 
        {
            cv::circle(image, imagePoint, 3, cv::Scalar(0, 0, 255), -1);
        }

    }

    cv::imshow("Projected Points", image);
    cv::waitKey(0);
	return 0;
}
  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
结合多传感设备以实现高级的感知能力是自动驾驶汽车导航的关键要求。传感器融合用于获取有关周围环境的丰富信息。摄像头和激光雷达传感器的融合可获取精确的范围信息,该信息可以投影到可视图像数据上。这样可以对场景有一个高层次的认识,可以用来启用基于上下文的算法,例如避免碰撞更好的导航。组合这些传感器时的主要挑战是将数据对齐到一个公共域中。由于照相机的内部校准中的误差,照相机与激光雷达之间的外部校准以及平台运动导致的误差,因此这可能很困难。在本文中,我们研究了为激光雷达传感器提供运动校正所需的算法。由于不可能完全消除由于激光雷达的测量值投影到同一里程计框架中而导致的误差,因此,在融合两个不同的传感器时,必须考虑该投影的不确定性。这项工作提出了一个新的框架,用于预测投影到移动平台图像帧(2D)中的激光雷达测量值(3D)的不确定性。所提出的方法将运动校正的不确定性与外部和内部校准中的误差所导致的不确定性相融合。通过合并投影误差的主要成分,可以更好地表示估计过程的不确定性。我们的运动校正算法和提出的扩展不确定性模型的实验结果通过在电动汽车上收集的真实数据进行了演示,该电动汽车配备了可覆盖180度视野的广角摄像头和16线扫描激光雷达。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值