强化学习系列(七):n-step Bootstrapping (步步为营)

本文详细介绍了强化学习中的n-step Bootstrapping方法,包括n-step TD预测和控制问题,如n-step Sarsa和n-step Tree Backup算法,并探讨了它们在on-policy和off-policy学习中的应用。通过对n-step Q(σ)的讨论,展示了介于n-step Sarsa和n-step Tree Backup之间的算法设计。
摘要由CSDN通过智能技术生成

一、前言

强化学习系列(五):蒙特卡罗方法(Monte Carlo)强化学习系列(六):时间差分算法(Temporal-Difference Learning)中,我们介绍了两种用于求解环境模型未知的MDP方法:MC和TD,MC是一种每episode更新一次的方法,TD是单步更新的方法,n-step Bootstrapping (步步为营)是一种介于TD和MC之间的方法,n-step更新一次。

本章我们仍然按照GPI思想,分prediction 和control 问题介绍n-step Bootstrapping (步步为营)方法。

二、n-step TD prediction

n-step TD prediction方法是一种介于蒙特卡罗方法(Monte Carlo)和时间差分算法(Temporal-Difference Learning)之间的方法,与MC和TD的Backup图如下:
这里写图片描述
最左侧的为我们在第六章中介绍的TD(0)算法,最右侧为我们在第五章中介绍的MC算法,当在一个采样数据中选择以n步数据来更新value function 时,采用的方法为 n-step TD prediction。

此处以更新 St S t 的state-value的估计值来说明n-step TD prediction,假设采样数据为 St,Rt+1,St+1,Rt+2,...,RT,ST S t , R t + 1 , S t + 1 , R t + 2 , . . . , R T , S T


MC:
这里写图片描述

TD:(one-step return)
这里写图片描述
其中 γVt(St+1) γ V t ( S t + 1 ) 代替了 γRt+2+γ2Rt&

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值