自动驾驶系统的传感器标定方法

作者 | 黄浴  编辑 | 汽车人

原文链接:https://zhuanlan.zhihu.com/p/57028341

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心技术交流群

后台回复【领域综述】获取自动驾驶全栈近80篇综述论文!

传感器标定是自动驾驶的基本需求,一个车上装了多个/多种传感器,而它们之间的坐标关系是需要确定的。湾区自动驾驶创业公司ZooX的co-founder和CTO是Sebastia Thrun的学生Jesse Levinson,他的博士论文就是传感器标定。

这个工作可分成两部分:内参标定和外参标定,内参是决定传感器内部的映射关系,比如摄像头的焦距,偏心和像素横纵比(+畸变系数),而外参是决定传感器和外部某个坐标系的转换关系,比如姿态参数(旋转和平移6自由度)。

摄像头的标定曾经是计算机视觉中3-D重建的前提,张正友老师著名的的Zhang氏标定法,利用Absolute Conic不变性得到的平面标定算法简化了控制场。

这里重点是,讨论不同传感器之间的外参标定,特别是激光雷达和摄像头之间的标定。

另外在自动驾驶研发中,GPS/IMU和摄像头或者激光雷达的标定,雷达和摄像头之间的标定也是常见的。不同传感器之间标定最大的问题是如何衡量最佳,因为获取的数据类型不一样:

  1. 摄像头是RGB图像的像素阵列;

  2. 激光雷达是3-D点云距离信息(有可能带反射值的灰度值);

  3. GPS-IMU给的是车身位置姿态信息;

  4. 雷达是2-D反射图。

这样的话,实现标定误差最小化的目标函数会因为不同传感器配对而不同。

另外,标定方法分targetless和target两种,前者在自然环境中进行,约束条件少,不需要用专门的target;后者则需要专门的控制场,有ground truth的target,比如典型的棋盘格平面板。

这里仅限于targetless方法的讨论,依次给出标定的若干算法。

首先是手-眼标定(Hand-Eye Calibration)。

这是一个被标定方法普遍研究的,一定约束条件下的问题:可以广义的理解,一个“手”(比如GPS/IMU)和一个“眼”(激光雷达/摄像头)都固定在一个机器上,那么当机器运动之后,“手”和“眼”发生的姿态变化一定满足一定的约束关系,这样求解一个方程就可以得到“手”-“眼”之间的坐标转换关系,一般是AX=XB形式的方程。

9d3b63f1d769cebf4afe3c53ad9a4e2e.png

手眼系统分两种:eye in hand和eye to hand,我们这里显然是前者,即手-眼都在动的情况。

手眼标定分两步法和单步法,后者最有名的论文是“hand eye calibration using dual quaternion"。一般认为,单步法精度高于两步法,前者估计旋转之后再估计平移。

这里通过东京大学的论文“LiDAR and Camera Calibration using Motion Estimated by Sensor Fusion Odometry”来看看激光雷达和摄像头的标定算法。

显然它是求解一个手-眼标定的扩展问题-,即2D-3D标定,如图所示:

34be205cccbff8b1c8966c396f5918fe.png

求解激光雷达的姿态变化采用ICP,而摄像头的运动采用特征匹配。后者有一个单目SFM的scale问题,论文提出了一个基于传感器融合的解法:初始估计来自于无尺度的摄像头运动和有尺度的激光雷达运动;之后有scale的摄像头运动会在加上激光雷达点云数据被重新估计。最后二者的外参数就能通过手-眼标定得到。下图是算法流程图:

92916767691f25a400c35dc10d8204fd.png

手眼标定的典型解法是两步法:先求解旋转矩阵,然后再估计平移向量,公式在下面给出:

6876e7084951026a9b327db67847eff1.png

现在因为scale问题,上述解法不稳定,所以要利用激光雷达的数据做文章,见下图:

98f7ec3a840d49c10a36da6c4fd1709d.png

3-D点云的点在图像中被跟踪,其2D-3D对应关系可以描述为如下公式:

2ede889ef97e49b88eacdb30674d4700.png

而求解的问题变成了:

6a836c11eeaa3cde88642afbd23a8d62.png

上面优化问题的初始解是通过经典的P3P得到的。

得到摄像头的运动参数之后可以在两步手眼标定法中得到旋转和平移6参数,其中平移估计如下:

8fa3d1e375defe62b551fa0230ab5982.png

注:这里估计摄像头运动和估计手眼标定是交替进行的,以改进估计精度。除此之外,作者也发现一些摄像头运动影响标定精度的策略,看下图分析:

18199a640aaee697bbe2c79c3a5d704b.png

可以总结出:1)摄像头实际运动a 越小,投影误差越小;2) ( )越小,投影误差越小。第一点说明标定时候摄像头运动要小,第二点说明,标定的周围环境深度要变化小,比如墙壁。

另外还发现,增加摄像头运动的旋转角,摄像头运动估计到手眼标定的误差传播会小。

这个方法无法在室外自然环境中使用,因为点云投影的图像点很难确定。

有三篇关于如何优化激光雷达-摄像头标定的论文,不是通过3-D点云和图像点的匹配误差来估计标定参数,而是直接计算点云在图像平面形成的深度图,其和摄像头获取的图像存在全局匹配的测度。

不过这些方法,需要大量迭代,最好的做法是根据手眼标定产生初始值为好。

另外,密西根大学是采用了激光雷达反射值,悉尼大学在此基础上改进,两个都不如斯坦福大学方法方便,直接用点云和图像匹配实现标定。

斯坦福论文“Automatic Online Calibration of Cameras and Lasers”。

斯坦福的方法是在线修正标定的“漂移”,如下图所示:精确的标定应该使图中绿色点(深度不连续)和红色边缘(通过逆距离变换 IDT,即inverse distance transform)匹配。

e4bf8d65b69c72410bb97e0564cf3d05.png

标定的目标函数是这样定义的:

3295183807824fdcfa35ed7efe41ee4b.png

其中w 是视频窗大小,f 是帧#,(i, j) 是图像中的像素位置,而p是点云的3-D点。X表示激光雷达点云数据,D是图像做过IDT的结果。

下图是实时在线标定的结果例子:

82196aaaa724de01806f3f64417fbbce.png
第一行标定好的,第二行出现漂移,第三行重新标定。

密西根大学的论文“Automatic Targetless Extrinsic Calibration of a 3D Lidar and Camera by Maximizing Mutual Information”。

这里定义了标定的任务就是求解两个传感器之间的转换关系,如图:求解R,T。

36f4f41801247dfdf42d7399c1ba8b9d.png

定义的Mutual Information (MI) 目标函数是一个熵值:

f9243ccd664b02564bf3385687161bd6.png

求解的算法是梯度法:

17876032a2f04c095cff224608433074.png

下图是一个标定的例子:RGB像素和点云校准。

ff795e52077fc071542c246fce611459.png

澳大利亚悉尼大学的论文“Automatic Calibration of Lidar and Camera Images using Normalized Mutual Information”。

本文是对上面方法的改进。传感器配置如图:

8c0075ed8c3abecaff269ec735e7e121.png

标定的流程在下图给出:

e9e73096321e445720193d91330cf389.png

其中定义了一个新测度Gradient Orientation Measure (GOM)如下:

c43bcce447e8dc3cfe425a009f68597c.png

实际上是图像和激光雷达点云的梯度相关测度。

点云数据和图像数据匹配时候需要将点云投影到柱面图像上,如图所示:

e68f4c7a8dd7d7c5bbe4c70c9c342911.png

投影公式如下:

98aba1b8db9aa0e5e4ec6bf3296a244e.png

而点云的梯度计算之前需要将点云投影到球面上,公式如下:

415df35e29c0e1de67c6596eeb5b306b.png

最后,点云的梯度计算方法如下:

48d0c04d115622e4a6d1436dd6c44e0a.png

标定的任务就是求解GOM最大,而文中采用了蒙特卡洛方法,类似particle filter。下图是一个结果做例子:

1a6571e1be9e75c1fe8436cb7e56c9b0.png

IMU-摄像头标定。

德国Fraunhofer论文“INS-Camera Calibration without Ground Control Points“。

本文虽然是给无人机的标定,对车辆也适合。

这是IMU定义的East, North, Up (ENU) 坐标系:

3daf7ba112927e3f9c84ac5f9162694b.png

而实际上IMU-摄像头标定和激光雷达-摄像头标定都是类似的,先解决一个手眼标定,然后优化结果。只是IMU没有反馈信息可用,只有姿态数据,所以就做pose graph optimization。下图是流程图:其中摄像头还是用SFM估计姿态。

449545708dddef5ce9e6c33ac52794ea.png

这是使用的图像标定板:

6efc64751d7226629137367a338ff4d5.png

激光雷达系统标定。

牛津大学论文“Automatic self-calibration of a full field-of-view 3D n-laser scanner".

本文定义点云的“crispness” 作为质量测度,通过一个熵函数Rényi Quadratic Entropy (RQE)最小化作为在线标定激光雷达的优化目标。(注:其中作者还讨论了激光雷达的时钟偏差问题解决方案)

“crisp“其实是描述点云分布作为一个GMM(Gaussian Mixture Model)形式下的致密度。根据信息熵的定义,RQE被选择为测度:

67174d55c35dedb63228e1dd86a69c68.png

下图是一个标定后采集的点云结果:

666b28de9d270dbe3b0b59dab4547c72.png

标定算法如下:

e15bb145e03e72198d910c316614017c.png

雷达-摄像头标定

西安交大论文“Integrating Millimeter Wave Radar with a Monocular Vision Sensor for On-Road Obstacle Detection Applications”。

在讲传感器融合的时候提过这部分工作,这里重点介绍标定部分。首先坐标系关系如下:

49d2d4841773426485894283a75ccaf7.png

传感器配置如下:

5e91b604feda535c2a9a09b533e197a1.png

标定环境如下:

6cde576bc2c5fbc0946a0716221eb9f3.png

标定其实是计算图像平面和雷达反射面之间的homography矩阵参数,如下图:

13b7cd7904b22278c194ee0c73bde2af.png

自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D感知、多传感器融合、SLAM、高精地图、规划控制、AI模型部署落地等方向;

加入我们:自动驾驶之心技术交流群汇总!

自动驾驶之心【知识星球】

想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D感知、多传感器融合、目标跟踪)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球(三天内无条件退款),日常分享论文+代码,这里汇聚行业和学术界大佬,前沿技术方向尽在掌握中,期待交流!

dde42c69da1eb7c785b1271554a61580.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值