[论文笔记]End-to-End Learning of Driving Models withSurround-View Cameras and Route Planners

本文探讨了使用360度环绕视角的相机和路线规划器进行端到端驾驶模型学习,以增强自动驾驶的安全性。通过结合GPS、地图信息和摄像头数据,模型能输出转向和速度控制。实验表明,这种方法优于仅使用前向摄像头的方法,并且TomTom路线规划器能显著提升预测性能。文章还讨论了环视摄像头在城市驾驶和交叉路口等情况中的优势。
摘要由CSDN通过智能技术生成

End-to-End Learning of Driving Models withSurround-View Cameras and Route Planners

作者认为,在自动驾驶中单单使用前向摄像头的图像无法反映所有驾驶信息,不足以学习安全的驾驶模型,所以本文开发了360度视角的传感器设置。而仅凭借相机图像依旧无法完成安全的自动驾驶,所以需要更加顶层的驾驶命令。本文通过全局路线来作为路线规划器提供顶层命令。

本文采用的是端到端的驾驶模型,从摄像头和路线规划器的输入直接输出驾驶控制。模型结构如下所示。

请添加图片描述

GPS信息和全局Map分别输入全连接层和CNN进行特征提取,而各个摄像头的数据输入到CNN再接LSTM进行特征提取。之后统一连接到全连接层,最后是两个FN以输出转向控制和速度控制。

CNN采用在ImageNet 数据集上预训练的ResNet34 模型。

Surround-View and TomTom route planner

请添加图片描述

数据说明

传感器设置:

共八个摄像头,每45°安装一个,360全景环绕,采用GoPro Hero 5 Black相机,所有相机以60fps采集1080p的图像。具体安装方式如下图所示。
请添加图片描述

地图信息的使用:

使用Luxen和Vetter针对OpenStreetMaps(OSM)数据开发的实时路线算法作为我们的路线规划器。将过去的行驶轨迹(一堆GPS坐标)提供输入到该算法,以将车辆定位到道路网络,并且将前方300米以内的规划道路的GPS标签用作该道路的规划路线的表示位置。

Luxen, D., Vetter, C.: Real-time routing with openstreetmap data. In: ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems (2011)

人类专家驾驶数据:

以50Hz在汽车的CAN总线上记录驾驶操作,例如方向盘角度和车速。

车辆里程计:

使用GoPro摄像机的内置GPS和IMU模块在行驶时记录18Hz的GPS数据和200Hz的IMU测量值

数据流时间同步:

所有传感器的内部时钟均与GPS时钟同步。视频帧的最终同步误差最高为8.3(ms),而地图信息和视频帧的误差最高为0.5s,CAN总线信号视频帧的同步误差最高为10 ms,这些都是可以接受的,因为人类驾驶再面对意外和预期的平均反应时间为1.3和0.7 s。

数据集共包含60个小时的驾驶数据。和其他数据集的对比。

请添加图片描述
请添加图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值