Camera TTC估计

Camera系列文章

传感器融合是将多个传感器采集的数据进行融合处理,以更好感知周围环境;这里首先介绍Camera的相关内容,包括摄像头及图像知识基本介绍,OpenCV图像识别(特征提取,目标分类等),融合激光点云和图像进行TTC估计。

系列文章目录
1. 摄像头基础及校准
2. Lidar TTC估计
3. Camera TTC估计


前言

本章我们将介绍使用Camera估计与前车的TTC(Time To Collision)。首先我们将展示如何基于Camera连续帧中车辆尺寸变化计算TTC;然后我们使用神经网络标记车辆在图像中的位置信息(Bounding Box);由于用Bounding Box来计算TTC不是很准确,我们将讨论使用关键点检测(keypoint detection)来准确的估计TTC。

相比Lidar TTC估计,基于Camera估计TTC相对难一些:首先,Camera获取的是2D图像(舍弃Z轴距离信息);其次,Camera需要更可靠、更准确的识别车辆以提取相对速度信息。


一、Camera TTC估计方法

如上所述,单目摄像头无法测量距离信息。不像Lidar可以直接TOF法测量距离信息,Camera是被动元器件,依赖于环境光线遇物体反射进入Camera镜头。双面摄像头可以通过对比固定间距的两个摄像头获取的图像差异直接估计距离信息,但由于工艺要求高,尺寸较大,价格较高,计算量较大,目前已经基本退出ADAS应用市场中。

尽管如此,我们还是可以从单目摄像头中提取距离信息。我们还是以CVM(Constant Velocity Model)固定相对速度运动模型来考虑如何无需测速即可计算出TTC。
在这里插入图片描述
如上图针孔摄像头几何模型中可推导出几何公式(1),基于此公式我们可以根据连续帧间目标物相对高度尺寸变化推算出TTC:
在这里插入图片描述

二、高度比估算方法

下图中,通过神经网络获取车辆在图像中位置,并用Bounding Box框出车辆位置,包括宽度和高度信息。理论上来说可以用来计算车辆在前后两帧图像中的高度比,但通过对比可以发现,Bounding Box无法准确反映车辆尺寸信息,会出现比较明显的错误估计。
Bounding Box
在工程中,依赖于单一测量或特征通常不够可靠,对于安全相关的产品尤其如此,因此,我们需要进一步提取车辆特征,即基于纹理特征点(Texture Keypoints)来估计尺寸变化。
如果我们可定位连续帧上车辆关键点的信息,我们就可以通过这些关键点间的距离信息估计Camera TTC估计公式里的高度比。如下图所示,(a)中我们检出7个关键点(keypoints);(b)中我们通过匹配连续帧中的关键点获取4个关键点。这样我们就可以使用距离比的中值或均值替代高度比。
hight ratio
高速场景下前车中提取的关键点叠加在2D图像上进行关键点相对距离估算图示如下。
relative distances between keypoints

Camera TTC估计实例

如上讨论可知,使用Camera TTC估计主要需要以下四步:
1.通过神经网络等方法框出前车在图像中的位置(Bounding BOX);
2.提取图像中一系列的关键点(Keypoints);
3.匹配连续帧中的关键点,建立连接;
4.根据一系列关键点距离的变化估计TTC。

步骤1~3包括较多的图像识别,深度学习内容,在本章暂不讨论,以下实例主要介绍如何根据匹配的关键点估计TTC。

以下实例中,匹配的关键点打包至

  • 0
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值