论文笔记5:How to Discount Deep Reinforcement Learning:Towards New Dynamic Strategies

该文探讨了深度强化学习(DQN)中折扣因子(discount factor)和学习率(learning rate)的动态调整对算法性能的影响。通过实验表明,逐步增长的discount factor可以加速学习收敛,而学习率的降低能提升系统稳定性,减少过拟合。同时,引入actor-critic算法增强探索性,避免局部最优。文章结构包括DQN回顾、discount factor的作用分析以及实验结果展示。
摘要由CSDN通过智能技术生成

参考资料:How to Discount Deep Reinforcement Learning: ...

为帮助跟我一样的小白,如果有大神看到错误,还请您指出,谢谢~

知乎同名:uuummmmiiii


创新点:相比于原始DQN不固定折扣因子(discount factor,γ),学习率(learning rate,α)

改进:变化discount factor 和 learning rate

改进原因:原始的DQN,即用NN代替Q表“存储”Q值,会出现系统不稳定的情况(应该是涉及到强化学习中状态之间有相关性,而NN中假设的输入都是独立同分布的问题)

带来益处:加快学习算法收敛,提高系统稳定性


Abstract

在强化学习中采用深度网络做函数估计已经取得了很大的进展(DQN),在DQN这个基准之上进行改进,本文阐述了discount factor在DQN的学习过程中起到的作用,当diac

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值