【读论文0628-2】Understanding Deep Learning Requires Rethinking Generalization

Understanding Deep Learning Requires Rethinking Generalization

论文在这里
发表在ICLR2017


论文

要解决的问题

为什么神经网络可以泛化

statistical learning theory has proposed a number of different complexity measures that are capable of controlling generalization error. These include

Intuition

Deep neural networks easily fit random labels. 理解神经网络的能力。VC维、Rademacher复杂度不能完全解释为什么能拟合随机噪声标签,Uniform stability不太好利用。

随机化实验

把数据标签替换成随机噪声,这样标签和输入样本没有关系。但是网络仍然可以收敛。破坏图像(添加随机噪声甚至整个图换成噪声)模型还可以拟合标签。

在这里插入图片描述
作者又做了实验,发现正则化不是提升泛化能力的根本原因。因为加不加正则化,泛化能力差不太多(see Figure 2 in the paper)。

总结

这个论文最大的亮点是设计的随机化实验。说明模型有能力直接“记住”训练数据,那网络越深越容易陷入这个现象,因为模型参数多了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值