引言:
在强化学习领域,OpenAI Gym作为一个标准的测试平台,为研究者和开发者提供了一系列预设环境。然而,面对特定问题或复杂应用场景时,创建自定义环境成为了必要。本文将引导你穿越自定义Gym环境的迷宫,联合gridworld网格可视化,让你的强化学习模型在专属的沙盒中自由探索。结尾附上Qlearning算法接入效果及结果。
Gym核心概念
-
环境(Environment): 在 Gym 中,环境是对现实世界或抽象问题的模拟。每个环境定义了一个任务,智能体在这个环境中通过采取行动并接收反馈来学习。环境的设计遵循 Markov 决策过程(MDP)框架,包括状态(State)、动作(Action)、奖励(Reward)和转移概率(Transition Probability)。
-
状态(State): 表示环境在某一时刻的配置或智能体所处的情况。状态可以是连续的也可以是离散的,具体取决于环境。
-
动作(Action): 智能体为了改变环境状态而采取的行为。动作同样可以是连续或离散的,与状态类型相对应。
-
奖励(Reward): 智能体执行某个动作后从环境中接收到的反馈,是评估动作好坏的标准,也是强化学习算法优化的目标。
-
观测(Observation): 智能体