RLGF无人机深度强化学习任务的通用训练框架(SAC, DQN, DDQN, PPO, Dueling DQN, DDPG)

RLGF 是一个通用的训练框架,适用于无人机的深度强化学习任务。该框架集成了多种主流的深度强化学习算法,包括SAC(Soft Actor-Critic)、DQN(Deep Q-Network)、DDQN(Double Deep Q-Network)、PPO(Proximal Policy Optimization)、Dueling DQN(决斗深度Q网络)以及DDPG(Deep Deterministic Policy Gradient)。
在这里插入图片描述

这个框架的设计目的是为了提供一种灵活而强大的工具,让研究者和开发者能够在无人机控制、导航以及其他相关的复杂任务中应用最新的强化学习技术。通过集成这些不同的算法,RLGF允许用户根据特定的应用场景选择最合适的强化学习方法,从而达到最佳的学习效果和性能表现。此外,这种集成方式还便于对比不同算法之间的性能差异,促进了算法的选择与改进。
在这里插入图片描述

开发

RLGF是一个适用于无人机深度强化学习任务的通用训练框架,构建了适用于无人机任务的动作模型,包括连续飞行动作与离散飞行动作。预置了飞行能量消耗模型与航线规划模型。能够根据自身任务自定义任务环境模型与无人机模型。并集成了多种主流的深度强化学习算法。

自定义开发:

该框架以配置XML文件的形式制定无人机强化学习任务,隐藏了深度强化学习过程的过程。仅需要重写环境模型与无人机模型中特定的函数,便能快速实现自定义无人机任务的开发。
多算法集成: 集成了主流的强化学习算法如DQN、AC、DDQN、DuelingDQN、PPO、SAC、DDPG,仅需通过配置XML文件即可快速更换任务所需算法进行训练。
在这里插入图片描述

无人机参数自定义:

能够根据XML文件配置无人机的性能参数,包括加速度、动作更新函数、状态空间函数、APF动态避障模式是否启用、初始坐标、最大/最小速度、最大转向角、最大任务时间步长、子任务粒度、飞行功耗参数(不同速度下无人机的飞行功耗不同)、通信功率等。也支持自定义无人机参数并载入进自定义的无人机模型。
训练日志支持: 能够将训练过程中的参数以csv的形式保存在logs文件夹下(需自定义保存形式)。
多维度无人机轨迹结果可视化:每轮任务迭代后将生成轨迹以HTML的形式保存在/DataBase/experience目录下。若本地或者服务器配置有MySQL数据库,可以通过提供的接口将航线数据存放到数据库中,并通过PathViewer的java后端项目实现每次迭代任务的无人机轨迹动态可视化。

支持私密消息:

服务端能够通过特定指令向公屏发送指定用户可见的私密消息,可用于文字交互游戏的角色分发。

开发环境

训练环境: Python 3.9.7, Pytorch 1.11.0.
可视化平台: jdk 17, Spring 6.15, maven, MySQL 10.3.19.
引用
内置算法均改自《动手学强化学习》中的代码。github链接:https://github.com/boyu-ai/Hands-on-RL
项目目录简介
RLGF/
README.md
requirements.txt
Agents/    #智能体模型所在目录,存放无人机或其他有关的智能体模型
BaseClass/    #存放基本的模型基类,以及通用计算工具
config/
buildings.xml    #环境中的建筑物配置文件。
DB.xml    #数据库配置,若无数据库,可以忽略。
PathPlan_City.xml    #案例环境模型的配置文件,定义了1个UAV在建筑群中执行航线规划任务。
Trainer.xmll    #所采用的训练器的配置文件。
UAV.xml    #案例无人机配置文件,定义了UAV在轨迹规划任务中的相关配置。
UI.xml    #PyEchart配置文件,不建议更改。
DataBase/
experience/    #以html的形式存放无人机的轨迹结果(静态)。
Connector.py    #提供连接数据库的功能。
Env/    #存放环境模型类。
FactoryClass/    #对应的工厂类。
logs/    #存放运行日志。
Mod/    #存放神经网络模型。
Obstacles/    #存放自定义的障碍物类。
Trainer/    #存放已经实现的强化学习算法训练器。
simulator.py    #训练器启动器。

基本使用案例

模型训练:

<simulator>
    <env>
        <Env_Type>PathPlan_City</Env_Type>   <!-- 自定义环境模型名称,与py文件名一致-->
        <len>500</len>  <!-- 环境规划空间长度-->
        <width>500</width>  <!-- 环境规划空间宽度-->
        <h>100</h>  <!-- 环境规划空间高度-->
        <eps>0.1</eps>  <!-- epslon最小贪心概率-->
        <Is_AC>0</Is_AC> 
        <Is_FL>0</Is_FL>   <!-- 是否启用联邦学习进行分布式训练(需要多个智能体)-->
        <Is_On_Policy>0</Is_On_Policy> 
        <FL_Loop>3</FL_Loop> 
        <print_loop>2</print_loop>
        <num_UAV>1</num_UAV> <!-- 无人机数目-->
        <Agent>
            <xml_path_agent>./config/UAV.xml</xml_path_agent>   <!-- 案例无人机的配置文件-->
            <Trainer>
                <Trainer_path>./config/Trainer.xml</Trainer_path>  <!-- 训练器的配置文件-->
            </Trainer>
        </Agent>
        <Obstacles>
            <buildings>./config/buildings.xml</buildings>  <!-- 建筑物分布的配置文件-->
        </Obstacles>
        <UI>
            <UI_path>./config/UI.xml</UI_path>
        </UI>
        <DB>
            <DB_path>./config/DB.xml</DB_path>  <!-- 数据库配置文件-->
        </DB>
    </env>
    <record_epo>10</record_epo> 
    <num_episodes>500</num_episodes>   <!-- 迭代次数-->
    <max_eps_episode>1</max_eps_episode>
    <min_eps>0.1</min_eps>
    <TARGET_UPDATE>3</TARGET_UPDATE>
</simulator>

运行simulator.py文件,即可启动训练过程。支持断点训练。每次运行会在/logs生成一个日志,可以查看每轮次训练的得分详情。并在/DataBase/experience目录下生成无人机轨迹。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值