【强化学习】强化学习:时间差分学习算法、SARSA(0)算法与神经网络模型结合迭代流程

以下是强化学习-时间差分学习算法(SARSA(0)算法)与神经网络模型相结合的迭代流程图

流程的关键点是:

1、流程中动作值函数的逼近方法使用的是神经网络模型(图中含NET的步骤,具体根据需要设计)。

2、模型中使用的动作值的真值是用神经网络模型(使用NET步骤)进行估算后乘于折扣率加上当前奖励得到的。

3、每一次迭代中,用来训练模型的状态值S、动作值A都是上一步迭代所得(on-line策略,评估与改进采用的是统一策略)。

4、训练NET的本质是:通过梯度下降等方法调整系统参数W (更新网络W步骤),使得网络模型逼近真实动作值函数。

5、图中的更新策略是广义理解,本质是神经网络经训练后模型发生变更,此时的策略间接发生了更新(可参考epsilon贪婪算法的实现进行理解)。

6、迭代的结束标志此处未给出,一般是系统提示结束(到达了目标、或者边界),或者是达到了指定的迭代次数主动退出,取决于具体实现。

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值