【路径规划】动态交通环境下的辅助驾驶决策方法强化学习算法研究附Matlab代码

 ✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、期刊写作与指导,代码获取、论文复现及科研仿真合作可私信或扫描文章底部二维码。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab完整代码及仿真定制内容点击👇

智能优化算法       神经网络预测       雷达通信       无线传感器        电力系统

信号处理              图像处理               路径规划       元胞自动机        无人机 

物理应用        机器学习

🔥 内容介绍

本文给出了一种面向动态交通环境的辅助驾驶决策方法,能够基于动态车流信息给

出路线规划方案。为了实现这一点,本方案以各个路口为节点,将道路简化为离散化网格图;基于状态对环境进行了离散化建模,使计算机得以模拟动态交通环境;通过道路长宽,其他车辆数目的因素建模计算各节点之间的行驶代价,构建车辆运行规则。在上述建模基础上,方案使用 A*和强化学习两种决策算法分别实现了实时路线规划。

关键词:动态交通环境;辅助驾驶;A*;Q-Learning;决策方法

0 引言

智能交通系统(Intelligent Transportation System,ITS)旨在构建更加安全,舒适,稳定

的交通环境;车辆高级驾驶辅助系统(Advanced Driver Assistance System,ADAS)近年来也

有了较快的发展[1]。其中,行车环境信息采集、行车环境表征建模及驾驶行辅助决策是驾驶

辅助决策的重要研究方向[2-4]。本文主要关注辅助驾驶决策中基于状态信息转换的驾驶路径

生成研究,旨在探讨动态交通环境下的车辆调度决策方法。

目前关于出行的导航规划问题,大多是基于静态道路信息进行驾驶员的辅助驾驶路线决

策,主要侧重于图论中的路径规划。涉及车辆出行规划的研究大致可分为两类[5]:第一类主

要为车辆集群推荐出行规划方案[6-8],针对车队整体运营目标进行优化,不反映驾驶员的驾

驶需求。第二类问题针对单辆汽车,考虑最短距离[9]、最短时间[9,10]或最短能量消耗[11]等目

标,为驾驶员推荐最优的驾驶路线,但仅考虑了确定性环境。

现有的地图导航软件,如百度地图、高德地图等,其动态信息大多是基于历史数据库的

迭代更新,利用数据驱动的方法,针对交通流这一批次性的间歇过程进行道路交通的建模,

并没有真正考虑到动态交通环境所带来的道路车辆转移规则,难以为驾驶员提供综合覆盖区

域动态信息等因素的辅助驾驶决策结果。

根据文献[12]的总结,无人驾驶车辆行为决策方法可以根据驾驶策略搜索和存储方式的

不同,分为四类:状态机模型、决策/行为树模型、基于知识的推理决策模型和基于效用/价

值的决策模型。本文采用了状态机模型的方法,即在司机驾驶的过程中,根据当前实时的交

通环境状态进行辅助决策,通过构建连通图来描述不同的驾驶途经点以及状态之间的转移关

系,从而根据驾驶状态的迁移地生成驾驶策略。此外,本文重点关注初始道路交通全局信息

已知情况下的动态交通流建模和车辆路径辅助决策方法,将采用基于状态更新的离散模型进

行建模,并利用 A*和 Q-Learning 两种决策算法进行求解,给出动态交通环境下的辅助决策

结果,为玉泉到紫金港的校车进行优化调度。

1 问题描述

1.1 问题目标重述

本文关注在拥有区域交通流的全局信息条件下,如何考虑动态交通流的变化情况,对玉

泉开往到紫金港的校车司机提供一种辅助性的驾驶路线决策方法。

首先,限定动态交通区域为玉泉到紫金港可能经过部分区域,对道路进行一定的简化,

考虑车流量大的主干道,删减部分小路,以降低模型的复杂度且不失一般性。同时,限定该

区域和外界没有车辆交换,仅考虑区域内的车辆流动和转移。

其次,对车流分布以及道路交通规则进行数学建模,考虑道路车辆密度、车道宽度、道

路长度、目的地导向信息等因素,构建车辆状态转移模型和区域交通流动模型。

最后,基于建立的交通规则模型,对从玉泉开往紫金港方向的校车,以朝向目标点、避

免拥堵等为综合目标,以不同车流分布(动态变化)和道路交通规则为约束,寻求一种代价

最小的行车方案。

1.2 形式化定义

辅助驾驶决策问题可以结合地图构建、路口标号,将其转化为数学问题,而优化目标为

寻求一条最优的路径。其中,最优的定义是使得总代价最小,而代价与多种因素相关。

为了简便起见,需要将道路进行简化,选取其中靠近主干道的部分路口,同时假设路口

见道路呈直线(事实上也基本是直线),最终将道路简化成如图 1 所示的网格化地图。

道路信息提取与简化处理

为方便后续进行道路交通建模与决策,首先通过百度地图获取从玉泉校区到紫金港校区

的地图全貌,如图 3 所示。

注意到,在图 3 中,除主干道以外,还有很多道路小分枝可以选择。在此,为了将侧重

点放在建模与决策方案上,忽略掉道路小分枝,并以主干道为重点考虑的交通道路,从而完

成对地图的简化。

在原地图的基础上,将非道路部分涂色为黑色,可以得到下图所示的地图图片,作为道

路信息提取的输入,如图 4 所示。

由于图 4 将大部分非道路区域都进行了黑色染色处理,从而可以突出道路部分。因此,

将上图转化为灰度图片,并根据每个像素的灰度值作滤波处理,得到灰度化后的地图图像,

如图 5 所示。

将上述灰度图进行拓展并卷积,使得在卷积核范围内出现灰度值>0 的像素时令该卷积

核范围的像素为白色(即可通道路),进行滤波处理后得到二值栅格化地图,如图 6 所示。

由图 6 可以看出,该二值栅格化地图很好地体现了原始地图中的道路信息。为便于进行

离散道路建模,将上述二值栅格化地图抽象为一个无向图。其中,每一个路口抽象为一个节

点,路口之间若有道路连通,则将道路抽象为边,得到抽象的无向图如图 7 所示。

其中,每个路口的横纵坐标取决于其在图片中的像素位置。由于所有路口统一由同一张

图片标定位置,其尺度是一样的,因而该无向图能够很好地表征原来的道路信息图。至此,

对道路信息的提取与简化预处理完成。

动态交通环境的构建思路

为了验证决策方法在动态交通下的运行效果,我们需要对动态交通进行基于状态的离散

建模。已知紫金港-玉泉区域共有 n 个路口,根据实际交通网络状况获得模型基本变量信息

基于 Q-learning 的辅助驾驶决策方法

3.3.1 考虑局部信息的决策方法

如前文所述,在全局信息可观的情况下,A*算法是一种十分优秀的路径规划算法。但大

多数实际情况下,全局信息对于 agent 而言是不可观的,这就导致 A*等一系列启发式搜索

算法难以得到应用。如何解决全局信息不可观情况下的路径搜索策略,是一个亟待考虑的问

题。

在本次问题求解中,我们主要采用了基于强化学习的路径规划算法。在问题求解过程中,

假若 agent 仅能获取局部信息,如图 12 所示,当 agent 处于路口Cross1时,其可观的信息

仅包括相邻路口Cross i的车辆信息及相连道路Road i (1, )的车流密度信息,强化学习方法

的优势便能够得到很好地体现

⛳️ 运行结果

🔗 参考文献

🎈 部分理论引用网络文献,若有侵权联系博主删除
👇 关注我领取海量matlab电子书和数学建模资料

🎁  私信完整代码和数据获取及论文数模仿真定制

🌈 各类智能优化算法改进及应用
生产调度、经济调度、装配线调度、充电优化、车间调度、发车优化、水库调度、三维装箱、物流选址、货位优化、公交排班优化、充电桩布局优化、车间布局优化、集装箱船配载优化、水泵组合优化、解医疗资源分配优化、设施布局优化、可视域基站和无人机选址优化、背包问题、 风电场布局、时隙分配优化、 最佳分布式发电单元分配、多阶段管道维修、 工厂-中心-需求点三级选址问题、 应急生活物质配送中心选址、 基站选址、 道路灯柱布置、 枢纽节点部署、 输电线路台风监测装置、 集装箱调度、 机组优化、 投资优化组合、云服务器组合优化、 天线线性阵列分布优化、CVRP问题、VRPPD问题、多中心VRP问题、多层网络的VRP问题、多中心多车型的VRP问题、 动态VRP问题、双层车辆路径规划(2E-VRP)、充电车辆路径规划(EVRP)、油电混合车辆路径规划、混合流水车间问题、 订单拆分调度问题、 公交车的调度排班优化问题、航班摆渡车辆调度问题、选址路径规划问题、港口调度、港口岸桥调度、停机位分配、机场航班调度、泄漏源定位
🌈 机器学习和深度学习时序、回归、分类、聚类和降维

2.1 bp时序、回归预测和分类

2.2 ENS声神经网络时序、回归预测和分类

2.3 SVM/CNN-SVM/LSSVM/RVM支持向量机系列时序、回归预测和分类

2.4 CNN|TCN|GCN卷积神经网络系列时序、回归预测和分类

2.5 ELM/KELM/RELM/DELM极限学习机系列时序、回归预测和分类
2.6 GRU/Bi-GRU/CNN-GRU/CNN-BiGRU门控神经网络时序、回归预测和分类

2.7 ELMAN递归神经网络时序、回归\预测和分类

2.8 LSTM/BiLSTM/CNN-LSTM/CNN-BiLSTM/长短记忆神经网络系列时序、回归预测和分类

2.9 RBF径向基神经网络时序、回归预测和分类

2.10 DBN深度置信网络时序、回归预测和分类
2.11 FNN模糊神经网络时序、回归预测
2.12 RF随机森林时序、回归预测和分类
2.13 BLS宽度学习时序、回归预测和分类
2.14 PNN脉冲神经网络分类
2.15 模糊小波神经网络预测和分类
2.16 时序、回归预测和分类
2.17 时序、回归预测预测和分类
2.18 XGBOOST集成学习时序、回归预测预测和分类
2.19 Transform各类组合时序、回归预测预测和分类
方向涵盖风电预测、光伏预测、电池寿命预测、辐射源识别、交通流预测、负荷预测、股价预测、PM2.5浓度预测、电池健康状态预测、用电量预测、水体光学参数反演、NLOS信号识别、地铁停车精准预测、变压器故障诊断
🌈图像处理方面
图像识别、图像分割、图像检测、图像隐藏、图像配准、图像拼接、图像融合、图像增强、图像压缩感知
🌈 路径规划方面
旅行商问题(TSP)、车辆路径问题(VRP、MVRP、CVRP、VRPTW等)、无人机三维路径规划、无人机协同、无人机编队、机器人路径规划、栅格地图路径规划、多式联运运输问题、 充电车辆路径规划(EVRP)、 双层车辆路径规划(2E-VRP)、 油电混合车辆路径规划、 船舶航迹规划、 全路径规划规划、 仓储巡逻
🌈 无人机应用方面
无人机路径规划、无人机控制、无人机编队、无人机协同、无人机任务分配、无人机安全通信轨迹在线优化、车辆协同无人机路径规划
🌈 通信方面
传感器部署优化、通信协议优化、路由优化、目标定位优化、Dv-Hop定位优化、Leach协议优化、WSN覆盖优化、组播优化、RSSI定位优化、水声通信、通信上传下载分配
🌈 信号处理方面
信号识别、信号加密、信号去噪、信号增强、雷达信号处理、信号水印嵌入提取、肌电信号、脑电信号、信号配时优化、心电信号、DOA估计、编码译码、变分模态分解、管道泄漏、滤波器、数字信号处理+传输+分析+去噪、数字信号调制、误码率、信号估计、DTMF、信号检测
🌈电力系统方面
微电网优化、无功优化、配电网重构、储能配置、有序充电、MPPT优化、家庭用电
🌈 元胞自动机方面
交通流 人群疏散 病毒扩散 晶体生长 金属腐蚀
🌈 雷达方面
卡尔曼滤波跟踪、航迹关联、航迹融合、SOC估计、阵列优化、NLOS识别
🌈 车间调度
零等待流水车间调度问题NWFSP 、 置换流水车间调度问题PFSP、 混合流水车间调度问题HFSP 、零空闲流水车间调度问题NIFSP、分布式置换流水车间调度问题 DPFSP、阻塞流水车间调度问题BFSP

### 回答1: 强化学习路径规划是一种能够自主学习并优化路径规划算法。涉及到的代码主要是基于matlab编写的,主要分以下几步: 1. 设置状态空间和动作空间:在matlab代码中需要将状态空间和动作空间进行定义。状态空间通常包括机器人所在的位置、姿态、速度等信息,而动作空间包括机器人可以执行的动作,例如前进、后退、左移、右移等。 2. 定义奖励函数:奖励函数是强化学习中非常重要的一个部分。它的定义需要根据具体的任务进行,例如在路径规划中,可以采用到达目标点获得正奖励,碰撞到障碍物则获得负奖励的方式。 3. 强化学习训练:基于以上定义,我们可以使用强化学习算法进行训练。在matlab中,通常使用深度强化学习算法,如Deep Q Learning(DQL)或者深度策略梯度算法(Deep PG),来进行训练。 4. 路径规划:一旦我们的算法训练完毕,我们就可以使用它来进行路径规划了。在matlab中实际使用时,我们可以定义目标点位置,然后根据模型输出的动作序列,来控制机器人达到目标点。 总之,强化学习路径规划matlab代码主要包括状态和动作空间的定义、奖励函数的构建、强化学习算法的训练以及路径规划的实现。 ### 回答2: 强化学习是一种通过试错来学习,从而优化决策策略的算法路径规划问题是其中的一个经典问题。路径规划是指在给定的环境中,通过规划一条最短路径或最优路径来实现从起点到终点的移动。这个问题可以通过强化学习算法得到解决。 在matlab中,我们可以采用深度学习工具箱和强化学习工具箱来实现路径规划。 在进行路径规划前,我们需要定义状态、动作和奖励。状态是指机器人在环境中的位置和姿态,动作是指机器人在当前状态下可以采取的移动方式,奖励是指机器人从起点开始到达当前状态所获得的奖励。在路径规划中,我们需要定义好这些参数。 然后,我们可以根据这些参数设计强化学习模型。强化学习模型包括价值函数、策略函数和环境模型。价值函数用于评估当前状态的价值,策略函数根据当前状态选择最优动作,环境模型则用于更新状态和奖励值。 在模型设计完成后,我们可以通过不断的训练和优化来提高路径规划的准确性和效率。 需要注意的是,路径规划是一个较为复杂的问题,需要一定的数学和编程基础才能进行解决。在使用matlab进行强化学习路径规划时,我们需要熟练掌握matlab的相关工具箱及其使用方法,并理解强化学习算法的原理和应用。 ### 回答3: 强化学习是一种智能算法,可以在未知环境中通过与环境的交互来学习最优策略。路径规划是一个重要的问题,在汽车导航、机器人行动、无人机飞行等领域都有广泛的应用。本文将介绍基于强化学习路径规划matlab代码实现。 首先,我们需要定义路径规划的状态空间、动作空间和奖励函数。状态空间可以表示车辆或机器人当前的位置、速度、方向等信息;动作空间包括向前、向左、向右等行动;奖励函数可以反映当前状态和行动的好坏程度,比如到达目标点则奖励为1,撞墙或超时则奖励为-1。 其次,我们使用Q-learning算法来更新策略,Q值表示在某个状态下采取某个动作能获得的奖励。算法通过不断地反复训练,逐渐调整Q值,从而获得最优策略。在每个状态下,我们可以选择基于贪心的策略,即选择Q值最大的动作;也可以使用epsilon-greedy策略,以一定概率随机选择其他动作,以便更全面地探索状态空间。 最后,我们在matlab环境下实现代码。我们可以使用matlab自带的Reinforcement Learning Toolbox库,该库提供了强化学习相关的基础函数、接口和算法,可以方便地进行路径规划等任务的开发。我们可以根据实际需求调整代码参数,比如学习率、折扣率、最大步数等,以获得最佳效果。 以上就是基于强化学习路径规划matlab代码的基本介绍。通过这种方法,我们可以在未知环境中自主学习最优路径规划策略,实现机器人或车辆的自主导航。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Matlab科研辅导帮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值