(总结算法流程)分层强化学习之Random Network Distillation(RND,随机网络蒸馏)

RND算法流程 在这里插入图片描述

原文链接:https://www.cnblogs.com/blog-hfg/articles/10452552.html

总结:
1.采用随机生成的固定网络作为目标网络,另一网络不断最小化与其的误差,从而达到评估观察的新颖性。
2.介绍了一种灵活地结合内在和外在奖励的方法。
abstract
我们为深度强化学习方法引入了一个探索方法,该方法易于实现,并且为执行的计算增加了最小的开销。奖励是神经网络预测由固定随机初始化神经网络给出的观察特征的误差。我们还介绍了一种灵活地结合内在和外在奖励的方法。

1.Introduction
但是当奖励稀疏且难以找到时往往会失败。实际上,为想要RL代理解决的每个任务设计密集奖励函数通常是不切实际的。在这些情况下,有必要以有针对性的方式探索环境.

RL的最新发展似乎表明解决了极具挑战性的任务需要处理从并行运行多个环境副本获得的大量样本。鉴于此,期望具有在大量经验下可以很好地扩展的探索方法。然而,许多最近引入的基于计数,伪计数,信息增益或预测增益的探索方法难以扩展到大量并行环境。

本文介绍了一种特别易于实现的探索奖励,适用于高维观测,可与任何策略优化算法一起使用,并且计算效率高,因为它只需要批量生成神经网络的单个正向传递经验。我们的探索奖金是基于以下观察:神经网络往往在类似于训练他们的示例上具有显着更低的预测误差。这促使了使用代理人过去经验训练的网络的预测误差来量化新体验的新颖性。

最大化这种预测误差的代理往往会被吸引到过渡,如Noise TV.我们的解决方案,我们预测当前观察的固定随机初始化神经网络的输出。

内在回报+外在回报的PPO在第一关中能找到24个房间中的22个。有时甚至能通关。

2.Method
通常有两种方法,一种是基于计数,另一种是基于它为相关的代理的转变的问题的预测误差。

2.2Random network distillation
本论文采用了一种随机生成预测问题的不同方法(预测观察的新颖性)。这涉及两个神经网络:一个随机初始并固定的目标网络f。另一个是预测网络f^θf^θ 。同样的想法也可以用于将奖励流与不同的折扣因子组合。

2.4 Reward and Observation Normalization
使用预测误差作为探索奖励的一个问题是奖励的规模在不同环境之间和不同时间点之间可能变化很大,使得难以选择在所有设置中工作的超参数。为了使奖励保持在一致的范围内,我们通过将内在回报除以内在回报的标准差的运行估计来对其进行归一化。

同样观察的归一化也很重要。在使用随机神经网络作为目标时至关重要,因为参数被冻结,因此无法适应不同数据集的规模。缺乏归一化可能导致嵌入的方差极低并且几乎没有关于输入的信息

Discussion
本文介绍了一种基于随机网络蒸馏的探测方法,并通过实验证明该方法能够对几种具有非常稀疏奖励的Atari游戏进行定向探索。这些实验表明,使用相对简单的通用方法可以在硬探索游戏方面取得进展,特别是在大规模应用时.

我们发现RND探索奖励足以应对局部探索,即探索短期决策的后果,例如是否与特定对象互动或避免它。然而,涉及长期视野的协调决策的整体探索超出了我们的方法的范围。

要解决Montezuma复仇的第一级,代理人必须进入一扇锁在两扇门后面的房间。整个楼层共有四个钥匙和六扇门。四个钥匙中的任何一个都可以打开六个门中的任何一个,但在此过程中消耗。因此,为了打开最后两扇门,代理商必须放弃打开两个更容易找到的门,并立即奖励它打开它们。
为了激励这种行为,代理人应该获得足够的内在奖励来保存关键,以平衡外在奖励的损失,尽早使用它们。根据我们对RND代理人行为的分析,它没有足够大的动力来尝试这种策略,并且很少偶然发现它。

解决这个以及需要高水平探索的类似问题是未来工作的重要方向。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值