模型压缩那些事(一)

本文探讨了模型压缩在深度学习中的重要性,特别是针对卷积神经网络的优化。作者分享了尝试过的减枝方法,如基于通道的裁剪和权重调整,以及对卷积层的spatial和channel维度的研究。同时,提到了L1 norm和ReLU后通道稀疏度作为裁剪准则的局限性,并指出当前研究中对这些准则选择的不足。文章还提到了Face++的一篇相关论文,表示将进一步研究并分享结果。
摘要由CSDN通过智能技术生成

最近搞了一段时间的模型压缩,有些经验想和各位童鞋分享下,想哪说哪,不严谨的地方欢迎大家随时拍砖。

目前卷积神经网络已经在计算机视觉领域取得了长足的进步,但是由于目前业内认为越深网络效果越好,所以卷积神经网络参数巨大,并且计算卷积层和全连接层需要大量的浮点矩阵乘法,导致计算开销也非常大,虽然有的网络可以在GPU上实时运行,但是这种庞然大物无法直接应用于手机等嵌入式设备中,所以我们需要对卷积神经网络进行裁剪使神经网络可以在手机跑起来。如果想要在手机上跑深度学习模型有两个关键点,一个是模型参数要少,另一个是运行时间短,目前来说有很多paper只关注模型压缩却不考虑模型加速,我主要想从模型加速这块来分享下我的一些经验和踩过的坑。

先说我的结论吧,以下都是我尝试过的以及接下来要尝试的一些方向,各位童鞋有不同看法欢迎在下面留言。

1.对每个卷积层的channel进行减枝

2.对每个卷积层的channel加权重

3.蒸馏网络(student network 如何逼近 teacher network)(softmax 逼近和特征层逼近)

4.Group Convolution(Mobilenet, ShuffleNet, Interleaved Group Convolution)

5.Densenet 相关

卷积神经网络主要包括卷积层和全连接层,卷积层占的运算量大而全连接层占的参数多,如果想要加速卷积神经网络,主要是对卷积层进行优化。对于卷积层我认为有spatial和channel两个维度,通常大家都是对spatial维度做文章,主要有Atrous Convolution, deconvolution,subpixel convolutions等等&

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值