了解《泛化误差》必看的6篇论文【附打包下载地址】

这篇博客推荐了6篇关于泛化误差的重要论文,包括ICLR 2017的最佳会议论文,探讨深度学习的泛化能力,以及神经网络优化与泛化的理论分析。读者可以通过阅读这些论文,理解泛化误差的最新研究进展。
摘要由CSDN通过智能技术生成

论文推荐

“ 本期推荐的文章主要关注于基础研究泛化误差领域,你可以认真阅读讲者推荐的论文,来与讲者及同行线上交流哦。

关注文章公众号

回复"SFFAI71"获取本主题精选论文

3篇领域经典

推荐理由:ICLR 2017的最佳会议论文。作者通过一些很有意思的实验(比如random label实验)来试图反驳之前的机器学习理论,认为之前的一些泛化上界并不能解释深度学习的成功。很有趣的一个文章,也被后来大部分做泛化的工作引用了。

—— 骆轩源

推荐理由:比较经典的关于SGD的泛化误差的论文。使用的是一个经典理论框架叫做algorithm stability。其结论为训练越快,泛化越好。

—— 骆轩源

推荐理由:本文提出神经正切核(NTK)。NTK算是一个比较大的理论突破,其建立了over-parameterized neural network与Kernel Method的关系。而kernel相对于神经网络的复杂函数来说,性质更清晰一些,说不定更容易分析一些。后续有很多工作基于NTK,比如可以证明梯度下降能找到深度神经网路的全局最优解等等。

—— 骆轩源

3篇领域前沿

推荐理由:本文精细地分析了两层 (超级宽) 神经网络的优化和泛化。结论非常有意义。

—— 骆轩源

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值