- 博客(3)
- 收藏
- 关注
原创 强化学习系列(十三):Policy Gradient Methods
一、前言之前我们讨论的所有问题都是先学习action value,再根据所得的action value 来选择action(无论是根据greedy policy选择使得action value最大的action ,还是根据 ϵ\epsilonϵ-greedy policy以1−ϵ1-\epsilon1−ϵ的概率选择使得action value最大的action ,action的选择都离不开act...
2018-09-27 20:42:04 7886 2
原创 强化学习系列(十二):Eligibility Traces
一、前言Eligibility Traces是强化学习的基本原理之一。例如TD(λλ\lambda)算法,(λλ\lambda)表示eligibility traces的使用情况。几乎所有TD方法,如 Q-Learning或Sarsa,都可以和eligibility traces结合起来生成更高效通用的方法。Eligibility Traces可以用于泛化TD和MC方法。当用eligibi...
2018-09-12 17:53:41 8425 1
原创 强化学习系列(十一):Off-policy Methods with Approximation
一、前言针对Policy iteration 中存在的exploitation问题,在第五章中将强化学习算法分为on-policy算法和off-policy算法。前两章中,我们讨论了对on-policy问题的函数逼近,本章中将重点介绍off-policy问题的函数逼近。两者差异很大。第六章、第七章中出现的 tabular off-policy 方法很容易用semi-gradient方法进行扩展...
2018-09-05 14:43:15 4128 3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人