强化学习基本概念

Value-Based(或Q-Learning)和Policy-Based(或Policy Gradients)是强化学习中最重要的两类方法,区别在于
Value-Based是预测某个State下所有Action的期望价值(Q值),之后通过选择最大Q值对应的Action执行策略,适合仅有少量离散取值的Action的环境;
Policy-Based是直接预测某个State下应该采取的Action,适合高维连续Action的环境,更通用;

根据是否对State的变化进行预测,RL又可以分为model-based和model-free:
model-based,根据State和采取的Action预测接下来的State,并利用这个信息训练强化学习模型(知道状态的转移概率);
model-free,不需对环境状态进行任何预测,也不考虑行动将如何影响环境,直接对策略或Action的期望价值进行预测,计算效率非常高。
因为复杂环境中难以使用model预测接下来的环境状态,所以传统的DRL都是基于model-free。

policy gradient 的最后一步的公式理解起来有点麻烦,因为它表示,更新一次actor的参数,需要等跑完m个trajectory之后,总共n step之后,才能更新一次。而这一次的梯度,由所有step的梯度和那一step所属的trajectory的reward加权得到。某一step的梯度,可以使用一般的backpropogation得到,也就是actor的模型是已经设定好的,需要根据输入,目标函数和当前模型参数,得到当前模型参数的上升梯度,这和CNN类似,模型参数,输入,目标函数,进而得到当前模型参数的梯度。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值