【自动驾驶-感知-红绿灯】红绿灯识别知识点

红绿灯识别是自动驾驶关键技术,主要分为基于v2x的信号接收和基于视觉图像识别。v2x方法需要改造红绿灯和依赖高网络传输,而视觉图像识别则依赖高精地图和图像检测技术,如yolo、ssd网络。尽管纯视觉识别仍面临漏检、误检问题,但通过LFM和斩波曝光等方法可缓解LED闪烁带来的挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

红绿灯识别是自动驾驶中最为基础的功能,识别方法主要有两种,一种基于视觉图像识别,一种基于v2x。

v2x,即通过红绿灯自己实时发送信号状态,再由车辆低延迟接收信号。该方法要对红绿灯进行改造,不仅对基础设备信号能力要求过高,而且对网络传输要求也不低,虽说目前5G出来了,但要大规模试用还需要一段时间,除却基础的要求外,对异常信号的处理等由于尚未实验环境,同样难以得到可以论证的方案。

基于视觉图像识别,即通过对2d图像进行检测分类识别获取交通灯的各项状态信息。该方法目前也有两种实现方案,一种基于高精地图位置获取感兴趣区域而后检测分类识别,另外一种完全基于2d图像检测分类识别。

基于高精地图位置获取感兴趣区域,而后对目标区域进行检测分类识别红绿灯状态算是业界比较通用的做法了。

以apollo开源为代表,便是使用该方法。该方法的输入包括自车位置(imu),查询地图中红绿灯的到位置信息,以及当前位置摄像头图像,输出即地图中红绿灯的id,颜色状态等信息。其中摄像头图像往往至少需要2个摄像头配合完成,包括一个短焦看近处的镜头,一个长焦看远处的镜头。目标检测通常采用yolo,ssd等单阶段网络训练得到,由于分类任务往往比较简单(基础的需要识别红、黄、绿、黑四种颜色),可以使用的分类网络也非常多。

这种方法的优势是通过地图投影到图像中,获取先验的感兴趣区域,能够有效的聚焦车辆关注的交通灯,减少其他交通灯及检测模型误检测误识别等问题,能够较好的实现自动驾驶车辆“看”灯的过程,为决策层提供较为可靠的light信息。

这种方法的缺陷是让简单的红绿灯识别功能变得十分臃肿,且扩展性降低,由于交通灯识别强依赖地图信息

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二十四桥下一句

您的鼓励是我最大的创作动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值