强化学习ROS实战-RLagent解析(上)

本文介绍了ROS中的强化学习库RL-agent,包括基础准备、RL-common包中Experience和StateActionInfo的定义、MDP模型、Planner、Environment、Agent的角色以及rl_msgs中用于引擎和环境通信的消息类型。通过理解这些组件,读者可以更好地掌握ROS环境下强化学习的实现。
摘要由CSDN通过智能技术生成

refornenced learing

理论的东西看着总是让人云里雾里没有实感,别担心,看看代码就懂了。
让我们来看一下ROS里面是如何实现强化学习算法的

1.基础准备

首先,让我们来了解下ROS-RL-agent的基本结构及其定义。

1.1.ROS-RL-agent

ROS 的RL引擎提供了一系列强化学习的引擎和环境。
代码可以在https://github.com/toddhester/rl-texplore-ros-pkg下载到
其主要包含以下几个包:
rl_common: Some files that are common to both agents and environments.
引擎和环境共通方法的定义,加入新引擎时必须COMMON中定义的头文件
rl_msgs: Definitions of ROS messages for agents and envs to communicate.
引擎和环境之间消息的定义
rl_agent: A library of some RL agents including Q-Learning and TEXPLORE.
一些强化学习的引擎
rl_env: A library of some RL environments such as Taxi and Fuel World.
一些强化学习用的模拟环境
rl_experiment: Code to run some RL experiments without ROS message passing.
不使用ROS中MESSAGE机制而直接 实例化引擎和环境并通过其方法的直接调用来进行实验的环境

1.1.1.rl_common

common package定义了在ROS——RL框架下引擎和环境中必须拥有的一些方法,其都定义在core.hh文件中,如果想要撰写新的引擎或者环境,都必须包含core.hh并继承为其对应目标的子类。

Experience
struct experience {
std::vector<float>
  • 3
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值