文章目录
前言
论文名:The Lottery Ticket Hyothesis:Finding Sparse, Trainable Neural Networks
论文作者:Jonathan Frankle et.al.
期刊/会议名:ICLR 2019
本文作者:XMU_MIAO
日期:2020/11/18
摘要
神经网络剪枝技术可以使训练网络的参数数减少90%以上,在不影响精度的前提下降低存储要求,提高推理的计算性能。然而,目前的经验是,通过修剪产生的稀疏结构很难从头开始训练以获得同样训练性能提高。
我们找到一个标准的剪枝技术自然地发掘子网络,而子网络的初始化使它们能够有效地训练。基于这些结果,我们提出彩票假设:稠密的、随机初始化的前馈网络包含子网络(中奖彩票),在单独训练时,在相似的迭代次数下达到与原始网络相当的测试精度。 我们找到的中奖彩票赢得了初始化抽签:它们之间的联系有初始权重,这使得训练特别有效。
本文提出了一种识别“中奖彩票”的算法,并通过一系列实验验证了彩票假设和这些偶然初始化的重要性。 我们一直都能找到比MNIST和CIFAR10的几个全连接和卷积前馈体系结构的10-20%还小的彩票。在此规模上,我们发现的“中奖彩票”学习速度比原来的网络和达到更高的测试精度。
一、Introduction
The Lottery Ticket Hypothesis(彩票假说): 随机初始化稠密的神经网络包含一个子网络(中奖彩票),在子网络被初始化后,单独训练最多与原网络一样的迭代次数后,能够达到原网络的测试精度。
Identifing Winning Tickets(识别中奖彩票): 实验的核心步骤:
- 随机初始化一个神经网络 f ( x ; θ 0 ) f(x;\theta_0) f(x;θ0),其中 θ ∼ D θ \theta\sim D_{\theta} θ∼D