强化学习最新作品:谷歌最新思想、MIT新书推荐、Sutton经典之作!

关注上方深度学习技术前沿,选择“星标公众号”

资源干货,第一时间送达!

强化学习一直是研究热点,对于小白来说,看书是最快入门的唯一途径。本期为大家精心准备了三本关于强化学习的书籍,分别是《强化学习—使用Open AI、TensorFlow 和 Keras实现》,来自MIT的新书推荐《强化学习与最优控制》以及Sutton老爷的经典之作《强化学习导论》第二版。宁静的午后,让自己沉浸在书海之中吧。

强化学习—使用Open AI、TensorFlow 和 Keras实现

作者:

Nandy, Abhishek, Biswas, Manisha

简介:

作为入门强化学习的书来说,小编强烈安利这本,毕竟实操是培养兴趣的最佳方法。除了从书中掌握与强化学习的相关理论和知识,逐步熟悉并建立起强化学习的框架和脉络之外。你还将了解如何使用利用Python使用Open AI、TensorFlow以及Keras。最后,你将从书中更深入地研究谷歌的深层思想,并看到可以使用强化学习的场景。

MIT新书《强化学习与最优控制》 

作者:

Dimitri P. Bertsekas

简介:

本书的目的之一是探索最优控制和人工智能这两个领域之间的共同边界,并为任一领域的专业人员搭建沟通的桥梁。在附录中,作者还对有限和无限视野动态规划理论和一些基本的近似方法作了简要介绍。十个概括主题的中心思想分别是:最优原理;近似价值空间;近似策略空间;无模型的方法和模;策略提升、轮询、自学习;近似策略提升、自适应模拟、和Q-学习;特色、近似架构和深度神经网络;增量和随机梯度优化;直接策略优化:一种更普遍的方法;直接策略优化的梯度和随机搜索方法。

   强化学习导论

   (第二版)   

作者:

Richard S. Sutton、Andrew G. Barto

简介:

Richard S. Sutton教授被认为是现代计算的强化学习创立者之一,堪称教父级别的人设。他为该领域做出了巨大贡献,包括提出了时间差分学习、策略梯度方法、Dyna架构等。强化学习导论第二版于2017年11月公布,共分为三大部分、十七章节。

第一部分以简单的形式尽可能多地描述强化学习算法的核心概念。第二部分扩展了第一部分介绍的列表法以应用于任意大的空间状态。在本文中,作者还通过新增人工神经网络和傅立叶基础等章节将这些思想扩展到函数逼近,并提供了对非政策学习和政策梯度方法的扩展处理。第三部分则是将眼光放到了标准意义上的强化学习思想之外,探讨了其与心理学和神经科学的关系,以及展示了更新的案例,比如AlphaGo和AlphaGo Zero,Atari游戏等。

书籍下载

请关注深度学习技术前沿公众号

  • 后台回复“2020强化学习” 就可以获取以上书籍资料的下载链接

重磅!DLer-强化学习交流群已成立!

欢迎各位RLer加入强化学习微信交流大群,本群旨在交流强化学习框架、策略梯度、DQN、理论推导与算法实现、前沿技术与顶会文章解读、应用场景等内容。更有求职内推、算法竞赛、资源干货、业界前沿资讯等,欢迎加群交流学习!

进群请备注:研究方向+学校/公司+昵称(如强化学习+上交+王明)

广告商、博主请绕道!

???? 长按识别,即可进群!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值