深度强化学习Deep Q-Network(DQN)玩CartPole游戏源码运行笔记

本文记录了在NVIDIA GTX 1070和Ubuntu 16.04环境下,使用TensorFlow 1.2.0和Keras 2.2.4运行深度强化学习DQN算法解决CartPole游戏的过程。详细步骤包括环境配置、源码准备、运行游戏以及可能出现的问题和解决方案。随着训练迭代的增加,智能体的游戏表现逐渐提升。
摘要由CSDN通过智能技术生成

1. 运行环境介绍

  • NVIDIA GTX 1070
  • Ubuntu 16.04 x64
  • CUDA 8.0.61
  • cuDNN 5.1
  • Python 3.4
  • TensorFlow 1.2.0
  • Keras 2.2.4(Keras-2.2.4-py2.py3-none-any.whl)
  • OpenCV 3.1.0 for Python3.4(opencv-3.1.0-np111py34_1.tar.bz2)
  • gym(gym-0.12.0.tar.gz)

2. 准备

S1. 下载源码并解压,地址:https://github.com/keon/deep-q-learning

S2. 若希望从头开始体验training过程,可以删除源码中save文件夹中的所有weights文件(或者修改成别的文件名也可以)。


3. 运行

S1. 打开源码中的ddqn.py文件,取消第102行、第116行和第117行的注释

S2. 新建终端,cd到源码的根目录下,运行如下命令即可:

python ddqn.py

运行过程如下两幅动图所示:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值