How to implement custom environment in keras-rl / OpenAI GYM?

题意:如何在 Keras-RL / OpenAI GYM 中实现自定义环境?

问题背景:

I'm a complete newbie to Reinforcement Learning and have been searching for a framework/module to easily navigate this treacherous terrain. In my search I've come across two modules keras-rl & OpenAI GYM.

我是强化学习的完全新手,一直在寻找一个框架/模块来轻松探索这片充满挑战的领域。在我的搜索中,我遇到了两个模块:keras-rl 和 OpenAI GYM。

I can get both of them two work on the examples they have shared on their WIKIs but they come with predefined environments and have little or no information on how to setup my own custom environment.

我可以让它们在各自的 WIKI 上分享的示例中运行,但这些示例带有预定义的环境,对于如何设置我自己的自定义环境几乎没有信息或没有说明。

I would be really thankful if

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

营赢盈英

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值