深度强化学习落地方法论(3)——算法选择篇

本文介绍了深度强化学习(DRL)的三个主流框架:DQN、DDPG和A3C(A2C、PPO),探讨了它们在探索与利用平衡中的角色。DQN适用于离散动作空间,DDPG处理连续控制任务,而A3C具有通用性,适用于多种任务类型。对于连续控制任务,现在推荐使用SAC或PPO,它们在训练稳定性、性能上有优势。
摘要由CSDN通过智能技术生成

前言

虽然每年RL方向的paper满天飞,但真正具有普遍实用价值的突破性工作实在不多,大多数还是在经典框架基础上的改进和扩展。DRL常规武器库里的存货主要还是老三样:DQN,DDPG和A3C,它们是深度学习时代最成熟、最能体现智慧结晶的三个DRL框架,你可以在GitHub上找到无数相关代码,有OpenAI,DeepMind和Nvidia这些大公司的,也有个人爱好者的。对于DRL初学者,它们是最佳的敲门砖;对于算法研究者,它们是最厚实的“巨人肩膀”;对于算法工程师,它们是最顺手的试金石。你完全可以把三个框架都放到项目模拟器上跑一跑,看哪个效果好就用哪个。当然,这三个算法框架都有各自的特点和适用domain,结合对项目的分析,是可以提前评估最合适的算法的。

2021年6月16日更新
考虑到这篇文章写作时间较早,这里统一更新算法选择方面的建议:对于连续控制任务,推荐SAC、TD3和PPO,三种算法都值得试一试并从中择优;对于离散控制任务,推荐SAC-Discrete(即离散版SAC)和PPO。至于TD3和SAC的详细介绍,网上资料很多,暂时就不写了,有机会再说。

强化学习——探索和利用的平衡游戏

总体来说,强化学习是一个探索(Exploration)和利用(Exploitation)的平衡游戏,前者使agent充分遍历环境中的各种可能性,从而有机会找到最优解;后者利用学到的经验指导agent做出更合理的选择。两者之间可以说是相爱相杀的关系:

  1. 充分的探索才能带来有效的利用,从而使RL走在正确的道路上。对于那些难度特别高的任务,改进探索策略是性价比最高的手段,比如AlphaGo使用蒙特卡洛决策树征服了围棋,Go-Explore利用状态回访打爆了Montezuma’s Revenge
  2. 充分的利用才能探索到更好的状态,agent往往需要掌握基本技能,才能解锁更高级的技能。就好像小孩先要学会站起来,才能学会走,然后才能学会跑。这种从易到难、循序渐进的思想在RL中也很受用,著名的Curriculum Learning就是由此而来
  3. 过量的探索阻碍及时的利用。如果随机探索噪声强度过高,已经学到的知识会被噪声淹没,而无法指导agent解锁更好的状态,导致RL模型的性能停滞不前
  4. 机械的利用误导探索的方向。如果刚刚学到一点知识就无条件利用,agent有可能被带偏,从而陷入局部最优,在错误道路上越走越远,在训练早期就扼杀了最好的可能性

强化学习的训练过程其实就是从以探索为主到以利用为主的过渡过程,训练早期通过广泛试错找准一个方向,然后沿着该方向一路试探下去直到达到最优。请牢牢记住这“两点一线”,因为这是所有RL算法的主要内容,任何RL算法都能以此为切入点进行解构,有助于不断加深对算法的理解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值