强化学习笔记(一)强化学习基本概念

本文详细介绍了强化学习的基础概念,如MDP、动态规划和各种算法(Q-learning、Sarsa、DQN等),并探讨了策略梯度、博弈理论应用及经典基线。涵盖无模型方法、控制策略、逆强化学习和深度强化学习的进展。
摘要由CSDN通过智能技术生成

强化学习笔记目录

  1. 强化学习基本概念
  2. 马尔可夫决策过程
  3. 动态规划
  4. ⽆模型预测⽅法
  5. ⽆模型控制⽅法
  6. 基于逼近器实现的强化学习算法
  7. 策略梯度⽅法
  8. 基于博弈理论的强化学习
  9. 强化学习基线算法
  10. 逆强化学习
  11. 深度强化学习

什么是强化学习

强化学习是一类基于最大化奖励的决策算法。

面临的主要困难

  1. 动作集不好定义
  2. 奖励不好设定
  3. 奖励可能非常稀疏
  4. 只适用于可以进行大量实验的场景

序贯决策过程

智能体在特定环境中产生一系列的动作,而这些动作会改变智能体的状态。

强化学习与其他机器学习算法的区别

  1. 产生的动作可能会影响数据的分布
  2. 不一定有即时的反馈

强化学习的基本元素

  1. 状态
  2. 状态集:分离散状态集和连续状态空间
  3. 动作
  4. 动作集:分离散动作集和连续动作空间
  5. 策略:状态集到动作集的映射;分确定策略和不确定策略
  6. 状态转移/环境:描述智能体在给定动作下的状态变化;分离散时间和连续时间;分确定型状态转移和随机型状态转移
  7. 奖励:环境对智能体的状态或动作好坏程度的反馈
  8. 回报:从某一初始状态出发的轨迹上的奖励累加和
  9. 折扣因子 γ \gamma γ:未来奖励对当前影响可能需要存在一定的折扣
  10. 价值:智能体在当前状态下回报的期望
  11. 最优价值:马尔可夫决策中有且仅有一个
  12. 最优策略:可能有一族

强化学习的分类

从得到最优决策的方法分类

基于值的

  1. Q-learning
  2. Sarsa
  3. TD
  4. DQN

基于策略的

  1. policy gradient
  2. actor-critic

直接优化动作序列

不借助价值函数和策略函数,通常依赖于模型

  1. 蒙特卡洛树搜索
  2. DDP
  3. iLQR

从决策与数据的交互看

在线学习

不依赖模型,智能体使用最新的策略

离线学习

利用模型或收集的观测数据进行训练

从是否有模型看

基于模型的

利用模型或模型生成的数据训练,可能需要利用观测数据构造模型

不基于模型的

直接利用观测数据训练价值或策略

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值