强化学习之分类与重点paper 1

重要的事情说三遍!
转载:https://www.jianshu.com/p/aeb0fd6da40f
转载:https://www.jianshu.com/p/aeb0fd6da40f
转载:https://www.jianshu.com/p/aeb0fd6da40f

强化学习是目前热门的研究方向。对不同强化学习的方法与paper进行分类有助于我们进一步了解针对不同的应用场景,如何使用合适的强化学习方法。本文将对强化学习进行分类并列出对应的paper。

1. Model free RL

a. Deep Q-Learning系列

算法名称:DQN
论文标题:Playing Atari with Deep Reinforcement Learning
发表会议:NIPS Deep Learning Workshop, 2013.
论文链接:https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
当前谷歌学术引用次数:5942


算法名称:Deep Recurrent Q-Learning
论文标题:Deep Recurrent Q-Learning for Partially Observable MDPs
发表会议:AAAI Fall Symposia, 2015
论文链接:https://arxiv.org/abs/1507.06527
当前谷歌学术引用次数:877


算法名称:Dueling DQN
论文标题:Dueling Network Architectures for Deep Reinforcement Learning
发表会议:ICML, 2016
论文链接:https://arxiv.org/abs/1511.06581
当前谷歌学术引用次数:1728


算法名称:Double DQN
论文标题:Deep Reinforcement Learning with Double Q-learning
发表会议:AAAI, 2016
论文链接:https://arxiv.org/abs/1509.06461
当前谷歌学术引用次数:3213


算法名称:Prioritized Experience Replay (PER)
论文标题:Prioritized Experience Replay
发表会议:ICLR, 2016
论文链接:https://arxiv.org/abs/1511.05952
当前谷歌学术引用次数:1914


算法名称:Rainbow DQN
论文标题:Rainbow: Combining Improvements in Deep Reinforcement Learning
发表会议:AAAI, 2018
论文链接:https://arxiv.org/abs/1710.02298
当前谷歌学术引用次数:903


b. Policy Gradients系列

算法名称:A3C
论文标题:Asynchronous Methods for Deep Reinforcement Learning
发表会议:ICML, 2016
论文链接:https://arxiv.org/abs/1602.01783
当前谷歌学术引用次数:4739


算法名称:TRPO
论文标题:Trust Region Policy Optimization
发表会议:ICML, 2015
论文链接:https://arxiv.org/abs/1502.05477
当前谷歌学术引用次数:3357


算法名称:GAE
论文标题:High-Dimensional Continuous Control Using Generalized Advantage Estimation
发表会议:ICLR, 2016
论文链接:https://arxiv.org/abs/1506.02438
当前谷歌学术引用次数:1264


算法名称:PPO-Clip, PPO-Penalty
论文标题:Proximal Policy Optimization Algorithms
发表会议:Arxiv
论文链接:https://arxiv.org/abs/1707.06347
当前谷歌学术引用次数:4059


算法名称:PPO-Penalty
论文标题:Emergence of Locomotion Behaviours in Rich Environments
发表会议:Arxiv
论文链接:https://arxiv.org/abs/1707.02286
当前谷歌学术引用次数:528


算法名称:ACKTR
论文标题:Scalable trust-region method for deep reinforcement learning using Kronecker-factored approximation
发表会议:NIPS, 2017
论文链接:https://arxiv.org/abs/1708.05144
当前谷歌学术引用次数:408


算法名称:ACER
论文标题:Sample Efficient Actor-Critic with Experience Replay
发表会议:ICLR, 2017
论文链接:https://arxiv.org/abs/1611.01224
当前谷歌学术引用次数:486


算法名称:SAC
论文标题:Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor
发表会议:ICML, 2018
论文链接:https://arxiv.org/abs/1801.01290
当前谷歌学术引用次数:1447


c. Deterministic Policy Gradients系列

算法名称:DPG
论文标题:Deterministic Policy Gradient Algorithms
发表会议:ICML, 2014
论文链接:http://proceedings.mlr.press/v32/silver14.pdf
当前谷歌学术引用次数:1991


算法名称:DDPG
论文标题:Continuous Control With Deep Reinforcement Learning
发表会议:ICLR, 2016
论文链接:https://arxiv.org/abs/1509.02971
当前谷歌学术引用次数:5539


算法名称:TD3
论文标题:Addressing Function Approximation Error in Actor-Critic Methods
发表会议:ICML, 2018
论文链接:https://arxiv.org/abs/1802.09477
当前谷歌学术引用次数:839

d. Distributional RL系列

算法名称:C51
论文标题:A Distributional Perspective on Reinforcement Learning
发表会议:ICML, 2017
论文链接:https://arxiv.org/abs/1707.06887
当前谷歌学术引用次数:600


算法名称:QR-DQN
论文标题:Distributional Reinforcement Learning with Quantile Regression
发表会议:AAAI, 2018
论文链接:https://arxiv.org/abs/1710.10044
当前谷歌学术引用次数:188


算法名称:IQN
论文标题:Implicit Quantile Networks for Distributional Reinforcement Learning
发表会议:ICML, 2018
论文链接:https://arxiv.org/abs/1806.06923
当前谷歌学术引用次数:139


算法名称:Dopamine
论文标题:Dopamine: A Research Framework for Deep Reinforcement Learning
发表会议:ICLR, 2019
论文链接:https://openreview.net/forum?id=ByG_3s09KX
当前谷歌学术引用次数:107


e. Policy Gradients with Action-Dependent Baselines系列

算法名称:Q-Prop
论文标题:Q-Prop: Sample-Efficient Policy Gradient with An Off-Policy Critic
发表会议:ICLR, 2017
论文链接:https://arxiv.org/abs/1611.02247
当前谷歌学术引用次数:259


算法名称:Stein Control Variates
论文标题:Action-depedent Control Variates for Policy Optimization via Stein’s Identity
发表会议:ICLR, 2018
论文链接:https://arxiv.org/abs/1710.11198
当前谷歌学术引用次数:46


算法名称:The Mirage of Action-Dependent Baselines in Reinforcement Learning
论文标题:The Mirage of Action-Dependent Baselines in Reinforcement Learning
发表会议:ICML, 2018
论文链接:https://arxiv.org/abs/1802.10031
当前谷歌学术引用次数:66


f. Path-Consistency Learning系列

算法名称:PCL
论文标题:Bridging the Gap Between Value and Policy Based Reinforcement Learning
发表会议:NIPS, 2017
论文链接:https://arxiv.org/abs/1702.08892
当前谷歌学术引用次数:223


算法名称:Trust-PCL
论文标题:Trust-PCL: An Off-Policy Trust Region Method for Continuous Control
发表会议:ICLR, 2018
论文链接:https://arxiv.org/abs/1707.01891
当前谷歌学术引用次数:68


g. Other Directions for Combining Policy-Learning and Q-Learning系列

算法名称:PGQL
论文标题:Combining Policy Gradient and Q-learning
发表会议:ICLR, 2017
论文链接:https://arxiv.org/abs/1611.01626
当前谷歌学术引用次数:58


算法名称:Reactor
论文标题:The Reactor: A Fast and Sample-Efficient Actor-Critic Agent for Reinforcement Learning
发表会议:ICLR, 2018
论文链接:https://arxiv.org/abs/1704.04651
当前谷歌学术引用次数:42


算法名称:IPG
论文标题:Interpolated Policy Gradient: Merging On-Policy and Off-Policy Gradient Estimation for Deep Reinforcement Learning
发表会议:NIPS, 2017
论文链接:http://papers.nips.cc/paper/6974-interpolated-policy-gradient-merging-on-policy-and-off-policy-gradient-estimation-for-deep-reinforcement-learning
当前谷歌学术引用次数:117


算法名称:Equivalence Between Policy Gradients and Soft Q-Learning
论文标题:Equivalence Between Policy Gradients and Soft Q-Learning
发表会议:Arxiv
论文链接:https://arxiv.org/abs/1704.06440
当前谷歌学术引用次数:170


h. Evolutionary Algorithms

算法名称:ES
论文标题:Evolution Strategies as a Scalable Alternative to Reinforcement Learning
发表会议:Arxiv
论文链接:https://arxiv.org/abs/1703.03864
当前谷歌学术引用次数:802

参考
https://spinningup.openai.com/en/latest/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
强化学习领域,绘制图表是非常重要的,它可以帮助你更好地理解算法的性能和结果。下面是一些强化学习论文中常用的绘图技巧: 1. 折线图(Line Plot):用于显示随时间变化的算法性能。可以绘制不同算法在不同训练步骤或时间步骤下的奖励曲线或价值函数曲线。可以使用Matplotlib或Seaborn库绘制折线图,并使用不同线条颜色或标记来表示不同算法。 2. 柱状图(Bar Plot):用于比较不同算法或不同参数设置下的实验结果。可以绘制不同算法的平均奖励或不同参数设置的性能比较。可以使用Matplotlib或Seaborn库绘制柱状图,并使用不同颜色的柱子来表示不同算法或参数设置。 3. 箱线图(Box Plot):用于显示数据分布的统计信息,如中位数、四分位数等。可以用于比较不同算法在不同环境下的奖励分布。可以使用Matplotlib或Seaborn库绘制箱线图,并使用不同颜色的箱子来表示不同算法或环境。 4. 散点图(Scatter Plot):用于显示两个变量之间的关系。可以用于观察状态和动作之间的关系或观察奖励和训练步骤之间的关系。可以使用Matplotlib或Seaborn库绘制散点图,并使用不同颜色或标记来表示不同变量。 5. 热力图(Heatmap):用于显示数据矩阵的颜色编码。可以用于显示状态值函数或动作值函数的矩阵。可以使用Matplotlib或Seaborn库绘制热力图,并使用不同颜色来表示不同数值。 除了这些基本的图形类型,你还可以根据具体需求选择其他类型的图表,如面积图、雷达图等。在绘制图表时,要注意选择合适的颜色、标签和标题,以及适当的坐标轴标尺和刻度。这些绘图技巧可以使你的强化学习论文更加直观和有说服力。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值