![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
传感器融合
清.隐
一步一步的往上爬~~人工智能方向985硕士,目前从事无人驾驶相关工作,希望与大家一起成长
展开
-
Udacity传感器融合笔记(三)Camera与lidar数据融合(下)
本篇博客为Camera与Lidar数据融合的下部分,主要记录如何将Lidar点云数据映射到camera图像数据。在介绍如何映射之前,先要了解一下什么是相机的外参和内参:1.相机的外参矩阵 包含两部分 :旋转矩阵R和平移矩阵T。描述的是世界坐标系和相机坐标系的相互位置关系。告诉我们如何将世界坐标系的一个三维点通过外参的坐标变换,变换到相机坐标系上。2.相机的内参矩阵K,描述的是相机坐标系和图像坐标系的位置关系。告诉我们如何将步骤1相机坐标系上的坐标转换为像素坐标系上的坐标3.畸变矩阵,由于镜头误差等因原创 2020-12-03 14:12:07 · 1111 阅读 · 1 评论 -
Udacity传感器融合笔记(三)Camera与lidar数据融合-(上)
之前两篇文章记录了lidar感知相关笔记,这篇记录视觉感知以及视觉数据和lidar数据的简单融合。直接上干货。文章主要记录两部分:1.lidar数据的处理2.camera与lidar数据的融合关于视觉部分的基础知识这里不再记录,主要包括图像特征点的提取,关键点、描述子、角点的定义。图像特征点的匹配等等。1.Lidar点云处理对于第一部分,要达到的效果就是对lidar数据的过滤处理,同时离本车近的数据点我们红红色表示,离本车远的数据点,我们用绿色表示,中间依次过渡。先放结果图:图中一个蓝色线格代表原创 2020-12-02 14:56:56 · 1125 阅读 · 0 评论 -
Udacity传感器融合笔记(二)lidar 点云处理
本篇博客主要记录lidar点云的分割以及聚类。1.Segmentation 点云分割对于lidar反馈回来的数据,我们总是希望从中准确的找到那些是障碍物,那些是道路点。为此,udacity课程中使用了RANSAC算法来进行点云的分割,将lidar点云分为障碍物点(外点)和道路点(内点)两类。1.1 RANSAC对于RANSAC算法(随即抽样一致算法),初次接触是在高博的视觉SLAM14讲中,该算法可以从一组包含“局外点”的数据中通过迭代的方式估计数学模型的参数,从而找到符合模型的“局内点”。这里不多原创 2020-11-16 15:40:14 · 739 阅读 · 1 评论 -
Udacity 传感器融合笔记 (一)lidar
Udacity 传感器融合笔记 (一)lidar点云分割原创 2020-11-15 15:29:30 · 995 阅读 · 5 评论