pruning model的一些思考

pruning 几点思考:
参考的项目是这个: https://github.com/tanluren/yolov3-channel-and-layer-pruning

  1. 参考的论文很有指导意义,在bn层加了scale factor(实际上是对bn层的gamma系数进行压缩),这个值越小,说明对网络不重要,就是可以剪枝的
  2. scale factor范围的确定:在目标函数中加了个正则项,在训练过程中自动剪枝

之前的想法:

  1. 剪枝最重要的就是剪枝方式和剪枝比例,就是在哪里剪,剪多少
  2. 如何保证大模型中重要的weight不被剪掉

看了这篇论文有启发: https://arxiv.org/abs/1803.03635
这篇论文的思考:

  1. dense、随机初始化的前馈网络包含子网络,这个子网络单独训练的时候,精度能达到原始网络的精度,这是作者提出的核心思想
  2. 剪枝技术中对子网络初始会化使得训练有效,但是随机初始化会比原始网络的精度低,除非适当的随机初始化,作者提出子网络的初始化参数来自原网络的参数集合
  3. 子网络的迭代次数小于原网络的迭代次数

最近看剪枝相关文章的一些想法:

  1. 训练一个over parameter的model对最终剪枝得到的小模型是不必要的
  2. 为了得到剪枝后的小模型去计算大模型中的import parameter是不必要的
  3. 剪枝得到的结构相比求得的weight更重要,所以剪枝过程其实就是搜索网络结构的过程
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值