深度强化学习二 || 价值学习 DQN 相关概念

深度强化学习二 || 价值学习 DQN 相关概念

用神经网络 Q(s,a;w) 来近似Q*(s,a) 函数,因为Q*函数并不存在

Q(s,a;w) : 参数为w,输入为s,输出为对所有动作a的评分,每个动作对应一个分数

image-20220213113539098

image-20220213113828288

TD算法训练DQN

image-20220213114629632

假设从NYC->Atlanta 模型预先估计 1000mins,我在路上到达 DC 时,车坏了,历时了300mins,此时模型估计从DC->Atlanta需要600mins,也就是说新的估计从NYC->Atlanta需要900mins,我就把900mins当做实际值,它要比纯的1000mins靠谱,因为900mins里面有300mins是实际观测到的,于是可以做更新。其中TD error = 1000-900 = 100

image-20220213115000532

TD error为0 就意味着估计值与实际值一致

用TD算法 意味着,不需要打完游戏,也可以更新参数

image-20220213115735681

image-20220213120108325

image-20220213120729203

image-20220213120749169

最后得到下述公式

image-20220213121008704

等式左边是在t时刻对游戏所有收益的期望,右边是 当前已经得到rt的回报,并对下一个时刻对游戏所有收益的期望乘以折扣

注Q(st,at;w) 其中at是已经做出的动作,它的评分最高

image-20220213121706253

整体过程如下

image-20220213122454222

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值