DQN训练雅塔丽游戏Pong

该文分享了使用深度Q网络(DQN)在Aritta平台上对Pong游戏进行训练的过程,模型在1000个回合后开始收敛。作者提供了基于PyTorch1.8.0和CUDA10.2的实现代码,奖励曲线显示了训练效果。读者可以查阅GitHub上的参考资料以了解更多详情。
摘要由CSDN通过智能技术生成

基于DQN的Arita中Pong游戏的训练结果,在1000个回合之后开始收敛。
已经将训练好的模型放在代码中。
torch = 1.8.0+cuda10.2
Python = 3.8
奖励曲线:
在这里插入图片描述

DQN训练结果

参考代码:https://github.com/jmichaux/dqn-pytorch
本文代码:链接:https://pan.baidu.com/s/1hvjfO3C5XNO0XjZga6vceQ
提取码:mhkz

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值