强化学习(1)

文章探讨了离散时间随机控制过程MDP,以及两种强化学习算法A2C和A3C。强调了基于策略方法相对于基于值方法的优势,特别是对于高维空间和随机过程的学习。策略梯度方法的挑战,如局部最优和抽样效率问题,也被提及。此外,文章还讨论了深度Q学习、经验回放、折扣奖励以及连续和离散控制系统在强化学习中的应用和影响。
摘要由CSDN通过智能技术生成
  • MDP:描述为离散时间随机控制过程。具体来说,将离散时间随机过程定义为下标变量是一组离散或特殊的值(相对于连续值来说)的随机过程。

  • A2C(Advantage Actor-Critic):优势Actor-Critic模型,更新所有子模型的参数。

  • A3C(Asynchronous Advantage Actor-Critic):异步优势Actor-Critic模型,具有多个相互配合工作的子模型,并且这些子模型独立更新参数。

  • 与基于值的方法相比,基于策略的方法倾向于收敛到更好的解决方案,尤其擅长学习随机过程,在高维空间中更显著有效,计算成本明显降低。

  • 梯度法指向微分函数的最陡方向。

  • 策略被定义为在给定环境状态下所有动作的概率分布,数学描述如下:

  • 回合(episode):agent从一个特定状态出发,直到任务结束(达成问题目标或彻底失败),被称为一个完整的回合。

  • 函数的梯度表示函数具有最大增长率的点,其大小是函数图形在该方向上的斜率。通常将梯度乘以一个学习率,该学习率确定了收敛到函数最优解的速度。梯度通常定义为给定函数的一阶导数。

  • 基于梯度下降的优化方法:常用于线性回归以及用于多层感知器权重优化的反向传播。

  • 策略梯度存在抽样效率的问题,策略梯度不会区分一个回合中采取的各个动作,意味着,如果在一个回合中采取的动作带来了很高的奖励,即使这些动作中的某些子集不是很理想,我们也可以得出结论,这些动作都是不错的。另外,策略梯度趋向于收敛到局部最大值而不是全局最大值。

  • 策略梯度方法的目的是利用基于梯度最优化来选择一组动作,使得在给定目标情况下,这些动作在环境中实现最优结果。

  • 折扣奖励:通过折扣奖励,使得原本为无穷的总和变得有限。如果不采取折扣奖励,这些奖励的总和将无限增长,将无法收敛于最优解决方案。

  • PPO通过对目标函数施加惩罚,然后在新改进的梯度下降上应用梯度策略,来专门处理策略梯度,从而避免限于局部最大值。

  • 对于梯度下降法来说,当梯度较小时,比起具有较大梯度值的神经网络,权重优化将容易得多。

  • 深度Q学习很大程度上源于Q学习,这两种方法之间的唯一真正区别是,深度Q学习近似处理其Q表中的值,而不是尝试手动填充它们。

  • 经验回放是通过保存观察到的经验以便利用它们,从而有助于减少可能观察到的经验之间的关联性。

  • 区别连续控制系统和离散控制系统的方式是,前者中的变量和参数是连续的,后者中的是离散的。强化学习应用背景中的连续过程示例包括驾驶汽车或教机器人走路。离散控制过程示例包括车杆游戏,钟摆问题等。

  • 深度Q学习由于高估的存在,经常学到非常高的动作值,高估会导致策略不佳,并容易引起模型偏差。可能会陷入局部最优。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天寒心亦热

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值