Ray(RLlib)
rllib
bug404_
女程序猿,计算机视觉方向,主要关注transformer、视觉、深度学习框架、模型压缩和部署相关的内容。
展开
-
使用tune.run怎么获取model summary的信息
使用rllib的时候,如果使用PPOTrainer或者某一个其他的trainer,在执行trainer.train()的时候,会打印model summary,也可以显式调用获取model summary的API,就像下面这样>>> from ray.rllib.agents.ppo import PPOTrainer>>> trainer = PPOTrainer(env="CartPole-v0", config={"eager": True, "num_work原创 2021-05-06 18:19:24 · 706 阅读 · 4 评论 -
解决rllib使用custom model没有日志输出的问题
在rllib的example中,有一个custom model的例子,链接,但是运行这个就会发现一个问题,没有训练的日志输出,只有这个状态信息,训练过程中的training iter, episode reward mean等信息都不输出。== Status ==Memory usage on this node: 1.2/9.3 GiBUsing FIFO scheduling algorithm.Resources requested: 0/1 CPUs, 0/0 GPUs, 0.0/5.22原创 2021-05-06 17:50:44 · 486 阅读 · 0 评论 -
深度强化学习专栏 —— 6. 使用RLLib和ray进行强化学习训练
我将文章发表在了古月居,一起来看看吧!戳这里 -> 古月居猜你想看:Ubuntu助手 — 一键自动安装软件,一键进行系统配置深度强化学习专栏 —— 1.研究现状深度强化学习专栏 —— 2.手撕DQN算法实现CartPole控制深度强化学习专栏 —— 3.实现一阶倒立摆深度强化学习专栏 —— 4. 使用ray做分布式计算深度强化学习专栏 —— 5. 使用ray的tune组件优化强化学习算法的超参数...原创 2021-02-20 17:17:16 · 1290 阅读 · 0 评论 -
深度强化学习专栏 —— 5. 使用ray的tune组件优化强化学习算法的超参数
我将文章发表在了古月居,一起来看看吧!-> 戳这里猜你想看:Ubuntu助手 — 一键自动安装软件,一键进行系统配置深度强化学习专栏 —— 1.研究现状深度强化学习专栏 —— 2.手撕DQN算法实现CartPole控制深度强化学习专栏 —— 3.实现一阶倒立摆深度强化学习专栏 —— 4. 使用ray做分布式计算深度强化学习专栏 —— 5. 使用ray的tune组件优化强化学习算法的超参数...原创 2021-02-19 16:40:44 · 384 阅读 · 0 评论 -
深度强化学习专栏 —— 4. 使用ray做分布式计算
我将文章发表在了古月居,一起来看看吧!-> 戳这里原创 2021-02-19 16:35:39 · 421 阅读 · 0 评论