[论文笔记]Vision-Based Trajectory Planning via Imitation Learning for Autonomous Vehicles

本文提出了一种新的自动驾驶技术,通过模仿学习进行视觉基軌迹规划。利用三个子网络处理直行、左转、右转任务,结合人类驾驶习惯,无需地图,能应对复杂环境。网络融合视觉感知和状态信息,实现端到端的路径规划。通过在Robotcar数据集上训练,展示了模型在不同场景下的优越性能,但未考虑交通信号处理和各种天气条件的影响。
摘要由CSDN通过智能技术生成

Vision-Based Trajectory Planning via Imitation Learning for Autonomous Vehicles

基于视觉的模仿学习路径规划器。由三个子网络组成,分别执行 直行、左转、右转的任务。规划过程中,由接受的高级命令来选择特定的子网。

人类驾驶过程中,通常通过导航软件得知要行驶的方向。例如下一个路口左转。基于这一现象本文提出,根据高级驾驶命令通过基于视觉的模仿学习拉规划路径。

请添加图片描述

第一类中的大部分都是基于地图构建的,因此需要在计算资源的限制下动态地进行更新,而这可能不足以反映环境的变化。另外,该方法方法依赖于感知系统从原始的感知输入中以手动设计的特征的形式提取信息。在变化的环境中较难适应。

第二类有两个缺陷(i)车辆不能在交叉路口操纵。可能会因缺乏高级导航命令而转向错误。 (ii)学习的行为策略只能在使用专门收集的数据上才能很好地执行。

本文将视觉感知和状态信息映射到未来的轨迹中,将传统框架中的感知、行为层、运动规划等模块被整合到一起。形成一种端到端的轨迹规划方法。

本文的主要工作由:

模仿人类的驾驶行为,引入一种新颖的基于无图学习的规划方法。面对十字路口等一些困难场景,该方法是可靠的。

根据网络规划的轨迹,可以针对不同车辆设计不同的控制器。

相关工作

用各种输入测试了不同的网络,例如一系列灰度图像,过去的自我运动,周围物体的检测和车道标记估计。所有模型均通过模仿学习使用收集的欧洲农村地区7个小时的真实驾驶数据进行了训练。结果表明,在许多情况下,LSTM或CNN-LSTM预测的路径是平滑可行的。但是,该网络不应处理决策,仅考虑车道保持任务。另外,由于数据限制,未考虑与周围环境的相互作用

**Deep Path Planning Using Images and Object Data **

网络搭建:

考虑历史的数据,网络的输入由当前时刻前1.5秒的驾驶数据组成,包括k组图像+车辆的运动状态信息(横向位置x 、纵向位置z、速度v)。

网络的输出是未来3s的无碰撞轨迹的位置。

输入命令来选用3个子网中的一个来执行不同的驾驶任务(直行、左转、右转)

请添加图片描述

3个子网分别用作提取输入图像的视觉特征,输出为128*12的特征向量。每张图像提取为128维的特征向量。状态信息模块将每个历史运动状态信息长度拓展为32维。联合特征为(128+32)*12。联合特征输入到LSTM网络中,最后输出到全连接层中来得到3*n的一个输出向量。

请添加图片描述

处理图像的CNN模块由四个卷积层、四个池化层以及三个全连接层组成。四个卷积层的kernel sizes分别为 7、6、5、5。相应的filters数量 分别为16、32、48、64。步幅都为1。三个全连接层将特征转换为128维向量。所有隐藏层进行batch normalization ,激活函数为Relu。

对于LSTM模块,循环

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值