https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/4-1-A-DQN/
- 我们通过 NN 预测出Q(s2, a1) 和 Q(s2,a2) 的值, 这就是 Q 估计. 然后我们选取 Q 估计中最大值的动作来换取环境中的奖励 reward.
- Q 现实中也包含从神经网络分析出来的两个 Q 估计值, 不过这个 Q 估计是针对于下一步在 s’ 的估计
- 还有两大因素支撑着 DQN 使得它变得无比强大. 这两大因素就是 Experience replay 和 Fixed Q-target
- 预测 Q 估计 的神经网络具备最新的参数, 而预测 Q 现实 的神经网络使用的参数则是很久以前的
也就是说: Q估计是采用实时更新的神经网络,Q现实是采用 target 网络(target网络也就是非实时更新的神经网络)
来自 <https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/4-1-A-DQN/>