深度强化学习-Q-learning解决悬崖寻路问题-笔记(三)

Q-learning解决悬崖寻路问题一级目录二级目录三级目录一级目录二级目录三级目录
摘要由CSDN通过智能技术生成

悬崖寻路问题

悬崖寻路问题(CliffWalking)是指在一个4 x 12的网格中,智能体以网格的左下角位置为起点,以网格的下角位置为终点,目标是移动智能体到达终点位置,智能体每次可以在上、下、左、右这4个方向中移动一步,每移动一步会得到-1单位的奖励。
在这里插入图片描述
如图,红色部分表示悬崖,数字代表智能体能够观测到的位置信息,即observation,总共会有0-47等48个不同的值,智能体再移动中会有以下限制:

  • 智能体不能移出网格,如果智能体想执行某个动作移出网格,那么这一步智能体不会移动,但是这个操作依然会得到-1单位的奖励
  • 如果智能体“掉入悬崖” ,会立即回到起点位置,并得到-100单位的奖励
  • 当智能体移动到终点时,该回合结束,该回合总奖励为各步奖励之和

实际的仿真界面如下:
在这里插入图片描述
由于从起点到终点最少需要13步,每步得到-1的reward,因此最佳训练算法下,每个episode下reward总和应该为-13。

Q-learning原理简介

具体理论可以参见我的另一篇博文
深度强化学习-马尔科夫决策过程和表格型方法-笔记(二)
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

Q-learning代码

class QLearning(object):
    def __init__(self,
                 obs_dim,
                 action_dim,
                 learning_rate=0.01,
                 gamma=0.9,
                 epsilon_start=0.9,
                 epsilon_end=0.1,
                 epsilon_decay=200):
        self.action_dim = action_dim  # 动作维度,有几个动作可选
        self.lr = learning_rate  
  • 4
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值