强化学习路径优化:基于Q-learning算法的机器人路径优化(MATLAB)

24 篇文章 2 订阅
2 篇文章 0 订阅

一、强化学习之Q-learning算法

Q-learning算法是强化学习算法中的一种,该算法主要包含:Agent、状态、动作、环境、回报和惩罚。Q-learning算法通过机器人与环境不断地交换信息,来实现自我学习。Q-learning算法中的Q表是机器人与环境交互后的结果,因此在Q-learning算法中更新Q表就是机器人与环境的交互过程。机器人在当前状态s(t)下,选择动作a,通过环境的作用,形成新的状态s(t+1),并产生回报或惩罚r(t+1),通过式(1)更新Q表后,若Q(s,a)值变小,则表明机器人处于当前位置时选择该动作不是最优的,当下次机器人再次处于该位置或状态时,机器人能够避免再次选择该动作action. 重复相同的步骤,机器人与环境之间不停地交互,就会获得到大量的数据,直至Q表收敛。QL算法使用得到的数据去修正自己的动作策略,然后继续同环境进行交互,进而获得新的数据并且使用该数据再次改良它的策略,在多次迭代后,Agent最终会获得最优动作。在一个时间步结束后,根据上个时间步的信息和产生的新信息更新Q表格,Q(s,a)更新方式如式(1):

式中:st为当前状态;r(t+1)为状态st的及时回报;a为状态st的动作空间;α为学习速率,α∈[0,1];γ为折扣速率,γ∈[0,1]。当α=0时,表明机器人只向过去状态学习,当α=1时,表明机器人只能学习接收到的信息。当γ=1时,机器人可以学习未来所有的奖励,当γ=0时,机器人只能接受当前的及时回报。

每个状态的最优动作通过式(2)产生:

Q-learning算法的搜索方向为上下左右四个方向,如下图所示:

Q-learning算法基本原理参考文献:

[1]王付宇,张康,谢昊轩等.基于改进Q-learning算法的移动机器人路径优化[J].系统工程,2022,40(04):100-109.

二、Q-learning算法求解机器人路径优化

部分代码:提供参考地图,地图数值可以修改(地图中0代表障碍物,50代表通道 ,70代表起点 ,100代表终点),最大训练次数等参数可根据自己需要修改。

close all
clear
clc
global maze2D;
global tempMaze2D;
NUM_ITERATIONS =700; % 最大训练次数(可以修改)
DISPLAY_FLAG = 0; % 是否显示(1 显示; 0 不显示)注意:设置为0运行速度更快
CurrentDirection = 4; % 当前机器人的朝向(1-4具体指向如下)
% 1 - means robot facing up
% 2 - means robot facing left
% 3 - means robot facing right
% 4 - means robot facing down
maze2D=xlsread('10x10.xlsx');%%导入地图(提供5个地图,可以修改) maze2D中 0代表障碍物 50代表通道 70代表起点 100代表终点
[startX,startY]=find(maze2D==70);%获取起点
[goalX,goalY] = find(maze2D==100);%获取终点
orgMaze2D = maze2D;
tempMaze2D = orgMaze2D;
CorlorStr='jet';

地图中绿色为通道,蓝色为障碍物,红线为得到的路径,起始点均标注。

(1)第一次结果

机器人最终路径:

  49   1

  48   1

  47   1

  47   2

  47   3

  48   3

  48   4

  48   5

  48   6

  48   7

  48   8

  47   8

  47   9

  47  10

  46  10

  45  10

  45  11

  45  12

  44  12

  43  12

  42  12

  42  13

  42  14

  42  15

  42  16

  42  17

  42  18

  42  19

  41  19

  41  20

  41  21

  41  22

  40  22

  40  23

  40  24

  40  25

  39  25

  38  25

  37  25

  36  25

  35  25

  34  25

  34  24

  33  24

  32  24

  31  24

  30  24

  30  25

  29  25

  28  25

  28  24

  27  24

  26  24

  25  24

  24  24

  24  25

  24  26

  24  27

  23  27

  22  27

  21  27

  21  28

  21  29

  21  30

  22  30

  22  31

  22  32

  22  33

  22  34

  21  34

  21  35

  21  36

  20  36

  19  36

  18  36

  17  36

  16  36

  15  36

  15  37

  15  38

  14  38

  14  39

  14  40

  14  41

  13  41

  12  41

  11  41

  10  41

   9  41

   8  41

   8  40

   7  40

   6  40

   5  40

   4  40

   4  41

   4  42

   4  43

   3  43

   2  43

   1  43

   1  44

   1  45

   1  46

   1  47

   2  47

   2  48

   1  48

机器人最终路径长度为 107

机器人在最终路径下的转向及移动次数为 189

(2)第二次结果

机器人最终路径:

  49   1

  48   1

  47   1

  47   2

  46   2

  45   2

  44   2

  44   3

  44   4

  43   4

  42   4

  42   5

  42   6

  42   7

  42   8

  42   9

  42  10

  41  10

  41  11

  41  12

  42  12

  42  13

  42  14

  42  15

  42  16

  42  17

  42  18

  42  19

  41  19

  41  20

  41  21

  41  22

  40  22

  40  23

  40  24

  40  25

  39  25

  38  25

  37  25

  36  25

  35  25

  34  25

  34  24

  33  24

  32  24

  31  24

  30  24

  30  25

  29  25

  28  25

  28  24

  27  24

  26  24

  25  24

  24  24

  24  25

  24  26

  24  27

  23  27

  22  27

  21  27

  21  28

  21  29

  21  30

  22  30

  22  31

  22  32

  22  33

  22  34

  21  34

  21  35

  21  36

  20  36

  19  36

  19  37

  18  37

  18  38

  17  38

  16  38

  15  38

  14  38

  14  39

  14  40

  14  41

  13  41

  12  41

  11  41

  10  41

   9  41

   8  41

   8  40

   7  40

   6  40

   5  40

   4  40

   4  41

   4  42

   4  43

   3  43

   2  43

   1  43

   1  44

   1  45

   1  46

   1  47

   1  48

机器人最终路径长度为 105

机器人在最终路径下的转向及移动次数为 186

(3)第三次结果

机器人最终路径:

  49   1

  48   1

  47   1

  47   2

  47   3

  48   3

  48   4

  48   5

  48   6

  48   7

  48   8

  47   8

  47   9

  47  10

  46  10

  45  10

  45  11

  44  11

  44  12

  43  12

  42  12

  42  13

  42  14

  42  15

  42  16

  42  17

  42  18

  42  19

  41  19

  41  20

  41  21

  41  22

  40  22

  40  23

  40  24

  40  25

  39  25

  38  25

  37  25

  36  25

  35  25

  34  25

  34  24

  33  24

  32  24

  31  24

  30  24

  30  25

  29  25

  28  25

  28  24

  27  24

  26  24

  25  24

  24  24

  24  25

  24  26

  24  27

  23  27

  22  27

  21  27

  21  28

  21  29

  21  30

  22  30

  22  31

  22  32

  22  33

  22  34

  21  34

  21  35

  21  36

  20  36

  19  36

  19  37

  18  37

  18  38

  17  38

  16  38

  15  38

  14  38

  14  39

  14  40

  14  41

  13  41

  12  41

  11  41

  10  41

   9  41

   8  41

   8  40

   7  40

   6  40

   5  40

   4  40

   4  41

   4  42

   4  43

   3  43

   2  43

   1  43

   1  44

   1  45

   1  46

   2  46

   2  47

   1  47

   1  48

机器人最终路径长度为 107

机器人在最终路径下的转向及移动次数为 200

三、完整MATLAB代码

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
很抱歉,根据提供的引用内容,我无法提供完整的强化学习路径规划的MATLAB代码。引用提到了一种基于强化学习的无人机路径规划方法和装置,但是没有提供具体的MATLAB代码。引用提到了Q-Learning算法,它是强化学习中的一种算法,但是也没有提供相关的MATLAB代码。引用则是提到了一个DangerMeasure的计算公式,但是没有提供完整的代码。如果你需要具体的MATLAB代码,建议参考相关的学术文献或者在线资源,以获取更详细的代码实现。希望对你有所帮助!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [【无人机路径规划】基于强化学习实现多无人机路径规划附matlab代码](https://blog.csdn.net/qq_59747472/article/details/122755301)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [基于matlab强化学习QLearning路径规划性能仿真](https://blog.csdn.net/hlayumi1234567/article/details/127892657)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值