基于DQN的Arita中Pong游戏的训练结果,在1000个回合之后开始收敛。
已经将训练好的模型放在代码中。
torch = 1.8.0+cuda10.2
Python = 3.8
奖励曲线:
DQN训练结果
参考代码:https://github.com/jmichaux/dqn-pytorch
本文代码:链接:https://pan.baidu.com/s/1hvjfO3C5XNO0XjZga6vceQ
提取码:mhkz
基于DQN的Arita中Pong游戏的训练结果,在1000个回合之后开始收敛。
已经将训练好的模型放在代码中。
torch = 1.8.0+cuda10.2
Python = 3.8
奖励曲线:
DQN训练结果
参考代码:https://github.com/jmichaux/dqn-pytorch
本文代码:链接:https://pan.baidu.com/s/1hvjfO3C5XNO0XjZga6vceQ
提取码:mhkz