dqn走迷宫 matlab_GitHub - rongyu10/DQN_of_DWA_matlab: learning the weight of each paras in DWA(Dynamic ...

该项目使用MATLAB和Deep Learning工具箱,通过DQN(深度Q学习)来学习DWA(动态窗口方法)算法中的参数权重。主要包含Agent和Environment两个模块,直接运行DQN.m即可开始训练。Agent模块负责建立和更新CNN模型,预测DWA参数。Environment模块则用于DWA算法的仿真。目前,项目仍在寻求优化,如调整神经网络结构和奖励策略。
摘要由CSDN通过智能技术生成

DQN_of_DWA_matlab

learning the weight of each paras in DWA(Dynamic Window Approach) by using DQN(Deep Q-Learning)

1、关于本项目

使用matlab平台及deeplearning工具包,利用DQN(Deep Q-Learning)对DWA(Dynamic Window Approach)算法中各参数的权重进行学习。

2、如何使用

直接运行DQN.m即可。

3、文件与参数说明

3.1 DQN.m

主训练函数,负责调用Agent与Environment的各个模块;训练时直接运行该文件即可。

3.2 Agent/

对应RL(增强学习)中的Agent模块,完成学习网络的建立(新建或加载已有模型),DWA参数预测(前向传播)与更新。

3.2.1 AgentOutput.m

通过cnn(卷积神经网络),由当前的状态得到此时各个选择的Q值,进而得到当前状态下的参数。

3.2.2 AgentLearn.m

由上一步得到的参数前进后环境反馈得到的reward,更新卷积神经网络,到达对卷及神经网络进行学习的目的。

3.2.3 NetSetUp.m & CreateNeuralNetneural.m

卷积神经网络的建立与定义,参照了DeepLearnToolbox并进行了部分修改。

3.2.4 ForwardPro.m & BackPro.m

神经网络的前向传播与残差的后向传播,参照了DeepLearnToolbox并进行了部分修改;可支持多通道、batch训练。

3.3 Environmen

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值