Gymnasium 借游戏来学习人工智能

既然有了免费的linux系统+GPU,干脆演示一下使用drive+colab套件来训练模型。

!apt-get install -y build-essential swig

!pip install box2d-py

!pip install gymnasium[all]

!pip install gymnasium[atari] gymnasium[accept-rom-license]

!pip install stable_baselines3

!pip install moviepy

如果你要训练模型,记得选GPU,默认是CPU ,两者的速度完全不可同日而语。

为了保持连接避免断线,请记得在浏览器的console(F12)输入JS代码 - 

function ConnectButton(){
    console.log("Connect pushed"); 
    document.querySelector("#top-toolbar > colab-connect-button").shadowRoot.querySelector("#connect").click() 
}
setInterval(ConnectButton,60000);

现在测试一下环境吧 = 

import gymnasium as gym
from gymnasium.wrappers import RecordVideo

env = gym.make("LunarLander-v2",render_mode="rgb_array")
env = RecordVideo(env, './video')
observation, info = env.reset(seed=42)
for _ in range(1000):
   action = env.action_space.sample()  # this is where you would insert your policy
   observation, reward, terminated, truncated, info = env.step(action)
 
   if terminated or truncated:
      observation, info = env.reset()
env.close()

您的进步和反馈是我最大的动力,小伙伴来个三连呗!共勉。

  • 8
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
您好!要在Gym中创建一个新的强化学习环境,您需要遵循以下步骤: 1. 确保已经安装了Gym:您可以使用pip命令安装最新版本的Gym库。 ``` pip install gym ``` 2. 创建新环境的Python文件:创建一个新的Python文件,比如`my_env.py`,用于定义您的新环境。 3. 导入必要的库和模块:在`my_env.py`中导入`gym`库和其他您需要使用的库和模块。 ``` import gym from gym import spaces ``` 4. 定义您的环境类:在`my_env.py`中定义一个名为`MyEnv`的新环境类,并继承自`gym.Env`。 ```python class MyEnv(gym.Env): def __init__(self): # 初始化您的环境参数 pass def reset(self): # 重置环境并返回初始状态 pass def step(self, action): # 执行给定动作并返回观测、奖励、终止标志和其他信息 pass ``` 5. 实现必要的方法:根据您的环境需求,在`MyEnv`类中实现以下方法:`__init__()`、`reset()`和`step()`。 - `__init__()`方法用于初始化环境参数,比如定义观测空间、动作空间等。 - `reset()`方法用于重置环境并返回初始状态。 - `step()`方法用于执行给定动作并返回观测、奖励、终止标志和其他信息。 6. 注册您的环境:在`my_env.py`文件的末尾,使用`gym`库的`register()`方法注册您的环境。 ```python register( id='MyEnv-v0', entry_point='my_env:MyEnv', ) ``` 7. 使用您的新环境:在其他Python文件中,您可以使用以下代码来创建并使用您的新环境。 ```python import gym env = gym.make('MyEnv-v0') observation = env.reset() done = False while not done: action = env.action_space.sample() observation, reward, done, info = env.step(action) ``` 这样,您就成功创建了一个新的强化学习环境并可以开始使用它了。记得根据您的需求实现`reset()`和`step()`方法中的逻辑,并根据您的环境设定观测空间和动作空间。 希望对您有所帮助!如果有任何其他问题,请随时提问。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值