模型优化论文笔记3----应用稀疏正则化训练和结构化剪枝进行模型压缩

本文介绍了结合稀疏正则化训练和结构化剪枝的模型压缩方法,通过在损失函数中添加L1正则化项,使模型参数变得稀疏。然后依据滤波器的稀疏性和BN层的特征缩放系数进行重要性评估,进行结构化剪枝。实验结果显示,该方法能在保持精度的同时,显著减少VGGNet、ResNet和DenseNet模型的参数量和FLOPs,压缩比例可达40%~80%。
摘要由CSDN通过智能技术生成

1 参考文献:
[1]韦越,陈世超,朱凤华,熊刚.基于稀疏卷积神经网络的模型剪枝方法[J/OL].计算机工程:1-8[2021-01-10].https://doi.org/10.19678/j.issn.1000-3428.0059375.

2 主要思想:
通过对模型进行稀疏正则化训练,得到参数较为稀疏的深度神经网络模型,并结合卷积层和 BN层的稀疏性进行结构化剪枝,去除冗余的滤波器。

3 背景:
神经网络的过度参数化(一文献表明模型中仅5%的网络参数可预测剩余参数)
模型剪枝:剪除不重要参数,压缩模型体积。核心问题:评价模型参数的重要性。
模型稀疏化:训练过程中,对参数的优化增加限制腰间使其稀疏化。
问题引出:能否将模型剪枝与模型稀疏化结合,一方面提升模型剪枝精度,一方面提升模型运算效率。

4 相关工作:
(1)结构化剪枝相比非结构化剪枝,不需要特殊的硬件设备和辅助工具,可直接部署到现有硬件设备和深度学习框架中。
(2)(1)中两者均需评价参数重要性。但仅依据参数自身进行重要性评价存在偏差。
(3)如何稀疏神经网络?0权重重要性低于非0权重,稀疏网络含大量0权重。采用稀疏正则化方法。

5 实现方法:
实现步骤:(1)对模型的卷积层和BN层进行L1正则化训练获得权值稀疏的神经网络。(2)依据滤波器稀疏性和BN层特征缩放系数,判断重要性。(3)结构化剪枝稀疏滤波器及对应连接,最后微调模型恢复精度。
步骤1:稀疏正则化训练
在损失函数中添加惩罚因子,对卷积层的权重和BN层的缩放系数进行约束, λ \lambda λ越大,约束越大,约束项 λ R ( w ) \lambda R(w) λR(w).采用L1范数。对于卷积核, R ( w ) = ∑ i = 1 m ∣ w i ∣ R(w)=\sum_{i=1}^m |w_i| R(w)=i=1mw

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值