模型加速常用方法

常用方法

  随着计算机硬件的发展,越来越多的神经网络被设计出来,尤其在视觉方面,这些新的网络的检测或者分类结果比传统方法更好;但是,常用的神经网络都是由几十层,甚至上百层网络组成,每一层都需要数以万计的浮点计算,需要的计算量非常大,虽然现在的硬件发展也比较迅速,但是还不能满足神经网络的计算量要求,这些问题也导致人工智能落地项目很少,只能停留在实验室阶段。为了解决计算量大这一问题,提出了模型加速这一概念,经过模型加速处理,可以将一些模型部署到移动端,例如ARM、FPGA及ASIC等计算力有限的移动端硬件平台

  当前,实现模型加速的方法很多,有轻量化设计、BN层合并、剪枝与量化、张量分解、蒸馏与迁移学习等,这些加速方法可以相互配合使用。

1、轻量化模型设计

  从模型设计时就采用一些轻量化的思想,例如采用深度可分离卷积、分组卷积等轻量卷积方式,减少卷积过程的计算量。此外,利用全局池化来取代全连接层,利用1×1卷积实现特征的通道降维,也可以降低模型的计算量,这两点在众多网络中已经得到了应用。

  对于轻量化的网络设计,目前较为流行的有SqueezeNet、MobileNet及ShuffleNet等结构。其中,SqueezeNet采用了精心设计的压缩再扩展的结构,MobileNet使用了效率更高的深度可分离卷积,而ShuffleNet提出了通道混洗的操作,进一步降低了模型的计算量。

2、BN层合并

  在训练检测模型时,BN层可以有效加速收敛,并在一定程度上防止模型的过拟合,但在前向测试时,BN层的存在也增加了多余的计算量。由于测试时BN层的参数已经固定,因此可以在测试时将BN层的计算合并到卷积层,从而减少计算量,实现模型加速。

3、网络剪枝

  网络剪枝:在卷积网络成千上万的权重中,存在着大量接近于0的参数,这些属于冗余参数,去掉后模型也可以基本达到相同的表达能力,因此有众多学者以此为出发点,搜索网络中的冗余卷积核,将网络稀疏化,称之为网络剪枝。具体来讲,网络剪枝有训练中稀疏与训练后剪枝两种方法。

4、权重量化

  是指将网络中高精度的参数量化为低精度的参数,从而加速计算的方法。高精度的模型参数拥有更大的动态变化范围,能够表达更丰富的参数空间,因此在训练中通常使用32位浮点数(单精度)作为网络参数的模型。训练完成后为了减小模型大小,通常可以将32位浮点数量化为16位浮点数的半精度,甚至是int8的整型、0与1的二值类型。典型方法如Deep Compression。

5、张量分解

  由于原始网络参数中存在大量的冗余,除了剪枝的方法以外,我们还可以利用SVD分解和PQ分解等方法,将原始张量分解为低秩的若干张量,以减少卷积的计算量,提升前向速度。

6、知识蒸馏

  通常来讲,大的模型拥有更强的拟合与泛化能力,而小模型的拟合能力较弱,并且容易出现过拟合。因此,我们可以使用大的模型指导小模型的训练,保留大模型的有效信息,实现知识的蒸馏。(老师和学生的关系)

  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值