NIPS2018深度学习(10)|亮点:训练技巧;强化学习;GAN(论文及代码)

该博客介绍了NIPS2018深度学习会议的亮点,包括步长在神经网络训练中的关键影响、行动消除在强化学习中的应用,以及使用正则化GAN学习紧凑二值描述符的方法。文章探讨了步长如何决定局部最优解,AE-DQN如何加速训练并提高鲁棒性,以及BinGAN如何生成具有判别性的二值特征。
摘要由CSDN通过智能技术生成

[1] Step Size Matters in Deep Learning

Kamil Nar, S. Shankar Sastry

University of California, Berkeley

https://papers.nips.cc/paper/7603-step-size-matters-in-deep-learning.pdf

利用梯度下降算法训练神经网络时,能够得到离散的非线性的动态系统。此时,在训练过程中网络会收敛到不定的点,而不是固定的点,而且还依赖于初始状态。

在这些现象中,步长起到非常重要的作用。步长决定了局部最优解的子集,如果算法收敛到一个轨道上,步幅决定了在该轨道震动的幅度。为解释步长对神经网络的影响,作者们将梯度下降算法当做离散的动态系统来研究,通过分析不同解的李雅普诺夫稳定性,给出了步长和相应的解之间的关系。

作者们发现,随深度的增加训练误差会恶化,对具有较大奇异值的线性映射进行估计比较困难,该文作者还发现深度残差网络具有显著不同的性能。

具有多个局部最优解的函数示例如下

640?wx_fmt=png

这篇文章的主要贡献如下

640?wx_fmt=png

该文章跟先前工作的主要不同在于

640?wx_fmt=png

不同步幅的影响如下

640?wx_fmt=png

代码地址

https://github.com/nar-k/NeurIPS-2018


              

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值