PPO算法的提出

PPO算法主要用于处理连续问题。

为什么提出?

本质是PG的一种延伸,在PG算法中学习效率难控制。如果过小,更新过慢,如果过大,更新幅度太大,会振荡,导致无法收敛。PPO基于此问题而提出,限制新策略的更新幅度。

PPO原理

通过伪代码,我们可以宏观看出其整体的思路。

伪代码

在这里插入图片描述
上图给出了PPO的简化伪代码,由于过于简单,
下面将网络更新分为三部分:
1、Actor网络更新:(值得说明)
第一项:新老policy的差距比例,差距越大,比例越大,更新幅度越大。优势函数的估计At_hat代表更新新策略的一个优势有多大。
第二项:惩罚项,限制了新老策略在差距较大时候的更新幅度。
在这里插入图片描述
2、Critic网络更新:
与大多数Critic网络的更新基本一致。
在这里插入图片描述

参考链接

@莫烦Python:https://www.bilibili.com/video/BV13W411Y75P?p=31&vd_source=948922ca6cec08e5d3c66940b4746f64

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值