1. 背景介绍
1.1 强化学习的兴起
近年来,强化学习(Reinforcement Learning, RL) 在人工智能领域取得了显著的进展,例如AlphaGo战胜围棋世界冠军、OpenAI Five 在 Dota 2 中战胜人类职业玩家等等。强化学习的目标是训练智能体(agent) 在复杂环境中通过与环境交互学习最优策略,从而最大化累积奖励。
1.2 策略梯度方法
策略梯度方法是强化学习中的一类重要算法,它直接对策略进行参数化表示,并通过梯度上升的方式更新策略参数,使得智能体能够获得更高的累积奖励。与基于值函数的方法(如Q-learning)相比,策略梯度方法具有以下优势:
- 可以直接处理连续动作空间:策略梯度方法可以将策略参数化为一个连续函数,从而可以直接输出连续动作,而基于值函数的方法需要进行离散化处理。
- 更适用于高维或随机策略:策略梯度方法可以直接优化策略,而基于值函数的方法需要通过值函数间接地优化策略,这在高维或随机策略的情况下可能会导致效率低下。
- 更容易收敛到局部最优:策略梯度方法的目标函数是策略的期望回报,它是一个平滑的函数,更容易收敛到局部最优解。
1.3 PPO算法
近端策略优化(Proximal Policy Optimization, PPO) 是一种基于策略梯度的强化学习算法,它在策略梯度方法的基础上引入了重要性采样(Importance Sampling) 和截断机制(Clipped surrogate objective),有效地解决了策略梯度方法中更新步长难以确定的问题&#x