论文解读《Learning Efficient Convolutional Networks through Network Slimming》

《Learning Efficient Convolutional Networks through Network Slimming》
原文地址:(https://link.zhihu.com/?target=https://arxiv.org/abs/1708.06519)
参考代码:https://github.com/mengrang/Slimming-pytorch
论文主要思路:
利用BN层的权重来评估输入channel的重要程度,对重要程度进行排序,假设剪枝率为50%,那么对于权重最小的一半剪掉,达到压缩模型。如下图,将较小的channel去除。

在这里插入图片描述
下面说说如何通过BN层的权重来评估重要程度,其实就是对BN层的缩放因子施加L1正则化,将其加入损失函数之后,形成新的损失函数。L1正则化将BN层的缩放因子不断调整,通过缩放因子不断趋于0来识别不重要的channel。额外添加的正则项对模型性能的影响微忽极微,它甚至可以帮助模型训练出更高的精度。修剪不重要的通道可能会暂时带来性能的损耗,但这种影响可以通过随后的finetune进行修正。

在这里插入图片描述
对应代码当中:
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值