RL强化学习笔记:OpenAI gym建立自己的探索环境

22 篇文章 27 订阅

本文为个人学习笔记,方便个人查阅观看
原文链接


利用OPenAI gym建立自己的强化学习探索环境:

首先,先定义一个简单的RL任务:
在这里插入图片描述

如图所示:初始状态下的环境,机器人在左上角出发,去寻找右下角的电池,静态障碍:分别在10、19位置,动态障碍:有飞机和轮船,箭头表示它们可以移动到的位置,会随时间改变而改变。
这里假设:它们的移动速度和机器人一样。飞机会沿着当前列上下来回移动,轮船则只在当前位置到左边两格的范围来回移动。移动范围:如箭头所示。

假设每个训练episode中,机器人在每一个step都有四个方向选择,碰到障碍物或者step超过了20步则终止该次训练。


一、安装gym
这部分不单独介绍,官网有详细步骤(简洁版及完整版)
[OPenAI gym官网]


二、进入gym文件夹
在这里插入图片描述
主要是这三个地方


  1. 首先打开初始化文件__init___
    在classic下加入这一段
    在这里插入图片描述
register(
    id='MyEnvrobt-v0',
    entry_point='gym.envs.classic_control:MyEnvrobt',
    max_episode_steps=200,
    reward_threshold=195.0,
)

  1. 在\gym\envs\classic_control中建立myenv文件夹
    在这里插入图片描述
    可以将\gym\envs中的registration文件复制放入\gym\envs\classic_controlmyenv文件夹中,并更名为MyEnvrob.py
    在这里插入图片描述
    在这里插入图片描述

  1. 打开myenvrobt.py文件
    首先将class myenv改为 class MyEnvrobt
    在这里插入图片描述
    后续 def函数就可以根据你所需要去定义环境的动作空间、状态空间、奖励、折扣等等

  1. 返回上一层\envs\classic_control, 打开__init__.py初始化文件,并加入
    在这里插入图片描述

在这里插入图片描述

from gym.envs.classic_control.myenv.myenvrobt import MyEnvrobt

这样就完成啦


  1. 测试环境
import gym
import time
env = gym.make('MyEnvrobt-v0')
env.reset()
env.render()
time.sleep(10)
env.close()

在这里插入图片描述
加入Q-learning后的简单测试:
在这里插入图片描述
完整代码及链接请看:

源码

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值