深度强化学习算法的四个问题

要想驾驭一个机器学习算法,我认为需要思考其四个方面:应用场景、目标变量、损失函数及学习过程。

深度强化学习也不例外:

  1. 应用场景

    上图是强化学习的交互示意图,Agent给出动作(Action),环境更新状态并返回奖赏(Reward)。
    我认为只要能满足以下两点,就可尝试使用强化学习框架:
      a, 数据流满足示意图的这种交互方式,注意Reward可以有延迟;
      b, 可以清晰地表示Action、State及Reward的空间,并能完整地描述需求。
  2. 目标变量
    知道了目标变量,才能知道算法到底在学习什么,也就是设计的神经网络具体在近似什么。
    深度强化学习的目标变量需要能表达最大化累计奖赏(cumulative reward),包括直接表达最大累积奖赏(Value)的Q(s,a)、V(s)及表达最优策略(Policy)的π(a|s),或者能表达Value/Policy的其他相关统计量(变化的部分).

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值