剪枝后 模型加速_神经网络剪枝

深度学习模型的复杂性和资源消耗限制了其在轻量级设备上的应用。神经网络剪枝作为压缩技术,通过删除冗余部分,可在保持性能的同时提高推理速度和节省存储。本文探讨了稀疏动量剪枝、基于科学控制的剪枝方法,以及剪枝的理论研究,展示了剪枝在模型加速和性能优化方面的潜力。
摘要由CSDN通过智能技术生成

a5bd54eb76024ab8a34d3a640dd80e4a.png

01 神经网络压缩技术概要

深度学习在计算机视觉以及自然语言处理等领域达到了一个前所未有的高度,但是深度学习模型往往极度复杂,并伴随着高额的存储空间与计算资源消耗,这使得深度学习模型很难落实到各个硬件平台。例如VGG16卷积神经网络,其参数数量有1亿3千多万,模型占用500多MB的存储空间,需要进行300多亿次的浮点运算才能完成一次图像识别任务。

经研究表明,在神经网络模型中存在大量的冗余神经元与权重,参与主要计算并对最终结果产生影响的权重只占总数的5-10%。这也给神经网络压缩提供了理论基础。若能够找到有效的压缩手段,深度神经网络便可更广泛的部署在移动设备等轻量级设备上。

在服务端,也可以提供更好的性能。举个实际的例子,我们用剪枝+知识蒸馏的方案,将维阵漏洞检测的模型的推理速度提高了9倍,即使仅仅基于CPU,也可以实现快速推理,这样服务端的硬件成本也可以降下来

压缩模型通常分为:1)对训练好的大型网络进行剪枝或对其权重进行量化。2)使用一定的方法构建更加轻型紧凑的网络。

其中,神经网络剪枝首先会从大型网络中筛选出不重要的神经元以及权重,之后将它们从网络中删除,在此同时尽可能的保留网络的性能。

剪枝技术按照细粒度的不同可分为结构性剪枝以及非结构性剪枝:

结构性剪枝剪除的基本单元为神经元(卷积中为filter),由于是对神经元直接进

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值