持续性任务中的新的问题设定

平均收益:智能体与环境之间的交互一直持续而没有对应的终止或开始状态

在平均收益的设定中,一个策略\pi的质量被定义为在遵循该策略时的收益率的平均值,简称平均收益,即r(\pi )

r(\pi)=\lim_{h \to\infty }\frac{1}{h}\sum_{t=1}^{h}E[R_t|S_0,A_{0:t-1\sim\pi}]=\lim_{t \to\infty}E[R_t|S_0,A_{0:t-1\sim \pi}]=\sum_{s}\mu (s)\sum_{a}\nabla\pi (a|s)q_\pi(s,a)

\mu是策略\pi下稳定状态的分布

\mu (s)=\lim_{t \to \infty}\Pr \{ \ {S_t=s|A_{0:t\sim \pi} \}

因为一直根据策略\pi选择动作,则这个分布会保持不变:

\sum_{s}\mu (s)\sum_{a}\pi (a|s,{\theta}) p(s'|s,a)=\mu(s')

回报是根据即时收益和平均收益的差来定义的,即差分回报

G(t)=R_{t+1}-r(\pi )+R_{t+2}-r(\pi )+...

差分价值函数,将所有的即时收益替换为即使收益和真实平均收益之差

v_\pi=\sum_{a}\sum_{r,s'}p(s',r|s,a)[{\color{Blue} r-r(\pi})+v_\pi(s')]

TD误差

\delta_t=R_{t+1}-\overline{R_{t+1}}+\hat{v}(S_{t+1},\omega _t)-\hat{v}(S_t,\omega _t)

\overline{R}_t是在t时刻对平均收益r(\pi )的估计。

需要对于每个时刻上的平均收益来定义性能

\nabla J(\theta )=r(\pi)=\sum_{s}\mu (s)\sum_{a}\nabla\pi (a|s)q_\pi(s,a)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值