《reinforcement learning:an introduction》第十一章《Off-policy Methods with Approximation》总结

本文总结了Sutton的《强化学习:介绍》第十一章,讨论了离策略方法与函数近似的结合可能导致的不稳定性与发散问题。尽管存在Baird's Counterexample展示的潜在风险,但在某些条件下,如行为策略接近估计策略时,Q-learning可能保持收敛。离策略学习、可扩展的函数近似和bootstrapping的组合是引发不稳定性的重要因素。
摘要由CSDN通过智能技术生成

由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。

对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。

因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。





The tabular off-policy methods developed in Chapters 6 and 7 readily extend to semi-gradient algorithms, but these algorithms do not converge nearly as robustly as in the on-policy case The on-policy distribution is special and is important to the stability of semi-gradient methods. 





Methods developed in earlier chapters for the off-p

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值