深度学习10--强化学习

        强化学习(增强学习、再励学习、评价学习简称RL)是近年来机器学习领域最热门的方向之一,是实现通用人工智能的重要方法之一。本章将通俗易懂地讲一下强化学习中的两个重要的模DQN DDPG

        马尔可夫决策过程(Markov   Decison   Process,MDP)包括两个对象:Agent  和环境。包 含4个要素:环境状态、智能体动作、智能体策略和奖励。Agent  环境中获取“状态”,然 后根据“策略”做出“动作”,改变了“环境”,得到了“奖励”。而希望得到的,就是一个好的“策 略”,在RL 中,这个“策略”就是一个神经网络,输入是环境状态,输出是动作。

        分清楚回报和奖赏的区别:因为强化学习的目的是最大化长期未来奖励,寻找最大的G  这容易理解,如果只看重 奖赏R, 用一个成语--鼠目寸光;如果看重的是长期的回报,那就是深谋远虑。

价值函数主要有两种:

(1)状态价值函数:意思就是一个状态的价值是基于一定的动作选择策略的未来回报的期望。先理解含义,不考虑怎么计算这个很抽象的公式。

(2)动作价值函数:就是当前状态s, 情况下采取了a, 动作的未来回报的期望。

 DQN

DQN  Deep Q-learning Network的缩写, 一般人们称为深度Q 学习。训练集中的数据都是统一的格式。DDQN 就是 Double  DQN。策略梯度(Policy Gradient,PG)就是基于策略的强化学习方法。DQN  是解决离散动作空间的算法。

        为什么说PG 是可以解决连续动作空间的呢?因为PG中避免了对最优动作的选取, 而是输出连续动作的概率分布,然后进行采样。这意味着,不管是多么糟糕的行为,在PG中都有可能执行,只是执行的概率非常的小。

        DQN  是一个典型的确定性策略,在策略不变的情况下,只会选择价值最大的那一个动作。相同的环境重复100次决策, 也只会选择100次同样的动作;而PG 是随机性策略,因为是从概率分布中采样,同样的环境重复100次决策,可能会有不同的决策产生。相应地,AC 算法也是随机性策略。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值