Dynamic Network Surgery for Efficient DNNs 核心思想解析

该文探讨了动态网络手术(Dynamic Network Surgery)的概念,旨在实现高效深度神经网络(DNNs)。通过为参数添加Mask,根据参数值的大小决定保留或清除,以达到网络压缩的目的。文中提出了使用损失函数的二阶导数来平衡训练损失和模型复杂度。通过Lagrange乘子和梯度下降的方法更新网络权重,并强调更新不重要的参数以提高灵活性。此外,定义了衡量网络连接重要性的函数,并关注模型的收敛速度。最后,给出了一种动态调整阈值以关闭或重新打开参数的策略,其中阈值基于均值和标准差计算。
摘要由CSDN通过智能技术生成

我们给每一个参数添加一个Mask。这个Mask可以和参数进行点乘,从而得到被Mask过滤后的参数。如果Mask上的值为1,那么对应位置的参数将被保留,如果Mask上的值为0,那么对应位置的参数将被清除。

有了Mask,我们问题又来了,每一个参数应该设置成什么值呢?一个直观的方案是根据参数数值的大小来判断,一般来说数值越大,它所起到的作用也越大。所以柿子要捡软的捏,我们可以设定一个阈值,把比阈值小的参数关闭掉,只保留大数值的参数(参数的绝对值小于threshold1这个参数将被关闭)。

但是这又带来了一个新的问题。虽然这些被关闭的参数数值都很小,但是累积起来也是一个很可观的数字,我们这样把它们关闭掉,还是有可能造成精度损失的。于是,当我们把一些参数关闭后,我们还需要重新训练,让参数在新的环境适应——也许会有新的参数变得很小,从而被关闭,当然也有可能有些被关闭的参数死灰复燃(参数的绝对值大于threshold2),变得重要起来。所以设置Mask的值和重新训练两个步骤需要交替进行。
在这里插入图片描述
右边是Han等人的方法,The drawback of Han et al.’

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Gallant Hu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值