模型剪枝学习记录

模型剪枝

《Learning Efficient Convolutional Networks through Network Slimming》

BatchNorm的本质

  • 将越来越偏离的分布重新规范化(减去均值,除以标准差)到均值为0,方差为1的标准正态分布,这样可以使激活函数在数值层面更敏感,训练更快。经过规范化之后,数值分布被强制限制在了非线性函数(如sigmoid)的线性区域当中。
  • 为了保证非线性,还要对变换后的结果做变换,即加入β,γ两个可训练的参数,对非线性做出一些补偿。
x为规范化以后的输入

y=γx+β
  • 将γ作为衡量特征图重要性的指标。但是有的数值之间较为相近,难以选择出重要的特征图。

L1和L2正则化

  • 防止模型过拟合(该作用和模型剪枝无关)
  • 为了使γ有特征选择作用,引入L1正则化使γ得值稀疏化。

流程

训练——剪枝——再训练

关于剪枝

  • 在设计模型的时候就注意网络的性能,比训练结束之后进行剪枝效果更好。
  • 剪枝效果并不一定有效。

MobileNet

v1

  • 传统卷积一般使用长宽为1以上的卷积核,对全部特征图做卷积后叠加,输出需要几个特征图就用几个卷积核
  • v1中首先将每个输入的每个特征图用不同卷积核做Depthwise卷积,提取特征;然后用1*1卷积改变特征图输出个数,做Pointwise卷积
  • 相当于传统卷积分两步走,效果一样但是参数少很多
  • 使用RELU6,把最大值限制在6,适合移动端低精度
  • 使用stride降采样,参数集中在1*1卷积核中
  • 按比例减少各层通道数。

参考

深度学习模型部署与剪枝优化

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值