网络剪枝(1)

论文名:Learning Efficient Convolutional Networks through Network Slimming
本文主题:Network Slimming

(1)剪枝的三种意义:

  1. re­duce the model size;
  2. decrease the run-time memory foot­print;
  3. lower the number of computing operations, without compromising accuracy.

1)减少模型大小;2)减少运行时内存足印;3)在不影响精度的情况下,减少计算操作次数。

(2)直接看结论:

It directly imposes sparsity-induced regularization on the scaling
factors
in batch normalization layers, and unimportant channels can
thus be automatically identified during training and then pruned

作用对象:BN层(和不重要的通道)
作用方式: imposes sparsity-induced regularization on the scaling factors(比例因子)

(3)啥是Network Slimming和sparsity-induced regularization,scaling factors?????

第一次出现Network Slimming和sparsity-induced regularization,在文章这一段。
在这里插入图片描述
Network Slimming的定义翻译一下大概是这样:

我们的方法在批归一化层(BN)中对比例因子施加L1正则化,因此很容易实现无需引入任何更改为现有CNN架构。通过L1正则化将BN标度因子的值推向零,使我们能够识别不重要的通道(或neu-ron),因为每个标度因子对应于特定的进化通道(或完全连接层中的神经元)

1)来自上图段落(蓝线后面),2)来自结论。
换句话说:

1)Our approach imposes L1 regularlization on the scaling
factors
in batch normalization (BN) layers
2) imposes sparsity-induced regularization on the scaling factors(比例因子)

在这里插入图片描述
然后这段话看完其实就是一张图
在这里插入图片描述
然后就是进入Related Work段落
这一段主要介绍网络结构压缩的方法,基本上没啥必要看哈哈哈哈

Network slimming 这一段
中国人发的论文最懂中国人!!!黑体字就把重点讲的一清二楚了
在这里插入图片描述
我不知道翻译对不对。大体上就是一个惩罚项

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值