- 博客(1)
- 收藏
- 关注
原创 连续动作空间与DDPG
连续动作空间与DDPG小车速度,角度,电压的电流量值这些是连续值,对于连续动作的动作控制空间,之前所介绍的Q-learning和 Sarsa、DQN等算法,这里是没有办法处理的。那怎么去输出连续的动作呢?这时候,万能的神经网络又出现了。在离散的动作场景下,如果需要输出上、停止、下,有几个动作,神经网络就输出几个概率值。在随机性策略情况下,对于某一个s(state),采取的某一个action的概率并不是百分之百。输出的将会是其中的一个概率的动作。在连续的动作场景下。比如要输出机器人胳膊弯曲的角度,就输
2020-06-25 16:01:46 1930 3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人