Proximal Distilled Evolutionary Reinforcement Learning

本文介绍了针对进化强化学习(ERL)的两种改进遗传算子:蒸馏选择和近端变异。传统n点交叉和高斯变异可能导致神经网络的灾难性遗忘,而提出的蒸馏选择通过复制亲本网络并结合经验学习,保持策略优势;近端变异依据权重对动作影响的敏感度进行稳定变异。这两种方法旨在提高进化过程的稳定性和策略的传承效率。论文提供了PyTorch代码实现,并通过对比展示了改进方法的优势。
摘要由CSDN通过智能技术生成

论文链接:论文传送门
官方pytorch的代码实现:代码传送门

介绍

上一篇讲的进化强化学习ERL(evolutionary reinforcement learning)是简单的将进化算法和强化学习算法进行结合。
而本文则是对这种结合提出了几个改进,并将改进方法命名为Proximal Distilled Evolutionary Reinforcement Learning

背景

在传统的进化算法与强化学习算法结合后,进化算法当中的种群的个体是神经网络。因此,我们需要对神经网络进行交叉和变异。而本文认为传统的n点交叉和高斯变异着两个遗传算子不适合用于神经网络,会导致灾难性遗忘问题,即交叉变异后的后代并不具备亲本的策略优势,且后代效果容易变得更差。
因此本文提出了两种遗传算子(蒸馏选择和近端变异)替代n点交叉和高斯变异。

快速理解

传统的交叉选择就是两个亲本神经网络的部分权重交换然后得到新的一个神经网络,这样的神经网络很明显更具有随机性,而蒸馏选择是将一个亲本的参数直接赋值得到一个一模一样的新神经网络,然后这个新神经网络再训练亲本的经验。这样新的神经网络似乎更代表了亲本的能力。
传统的高斯变异是直接将神经网络权重加上一个小的误差值,得到变异后的新网络。而近端变异是计算神经网络权重对结果(动作)的敏感程度,敏感度大则该权重变化小一点,敏感度低的权重则变化大一些。很明显这种变异更加的稳定,不会说权重一

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值