强化学习——蒙特卡洛MC与时序差分TD

本文介绍了强化学习中的蒙特卡洛和时序差分算法,通过实例解释了REINFORCE算法和Policy Gradient。重点讨论了Policy Gradient如何结合奖励汇报调整策略,并利用损失函数进行优化。
摘要由CSDN通过智能技术生成

本文内容源自百度强化学习 7 日入门课程学习整理
感谢百度 PARL 团队李科浇老师的课程讲解

参考博客:感谢博主

目录

1.蒙特卡洛与时序差分

2.REINFORCE

3.类比监督学习理解Policy Gradient

4.Policy Gradient


1.蒙特卡洛与时序差分

  • 蒙特卡洛算法完成一个回合(epsiode),然后进行一次学习learn(),回合更新。
  • 完整运行一个 episode,可得到每一个step的reward从而可以知道每一步 step 的未来总收益$$ G_t $$
  • 例子:REINFORCE算法

 

  • 时序差分算法在每一步(step)进行更新,单步更新。
  • 例子:Actor-Critic

2.REINFORCE

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值