定点 浮点 神经网络 量化_基于深度卷积神经网络的层内非均匀的等间隔定点量化方法与流程...

本发明提出了一种基于深度卷积神经网络的层内非均匀等间隔定点量化方法,旨在减小嵌入式系统的存储开销,保持模型精度。通过层间非规则量化确定最大量化位数,然后在每个卷积层选取定点值并用索引存储,结合微调消除量化误差。
摘要由CSDN通过智能技术生成

本发明涉及深度学习模型压缩领域,特别是面向嵌入式系统的深度卷积神经网络的定点化领域。

背景技术:

随着人工智能的快速发展,以深度学习为主导的算法所设计的应用已经越来愈多的出现在人们的生活,工作和娱乐中。然而深度神经网络往往由其十几甚至上百的卷积层构成,计算过程中产生的特征映射需要占据大量的存储空间。这意味着对于嵌入式应用对导致产品面积大大增加。所以,研究深度卷积神经网络的定点压缩问题,对于减小特征映射的存储开销,提高深度学习的实用价值有着非常非常重要的意义。

目前的深度卷积神经网络中的特征映射定点量化中主要是通过层间规则或者非规则量化方法,以减少特征映射的存储开销。

技术实现要素:

发明目的:本发明所要解决的技术问题是针对深度卷积神经网络中特征映射存储开销过大的问题,提供一种基于深度卷积神经网络的层内非均匀的等间隔定点量化方法,从而在保持模型精度的情况下使得存储开销得以大大减少。

为了解决上述技术问题,本发明公开了一种基于深度卷积神经网络的层内非均匀的等间隔定点量化方法,包括以下步骤:

步骤一,选取部分深度卷积神经网络的能够正确识别的图像,并提取识别过程中产生的特征映射;

步骤二,对卷积神经网络中的特征映射进行层间非规则量化,在保持模型精度情况下,确定每一层卷积网络的最大量化位数;

步骤三,对于模型中的每一卷积层,在最大量化位数能表示的范围内,以一定间隔选取定点值,并用定点值代表特征映射中的值,并以索引的形式进行保存;

步骤四&#x

随着深度学习的发展,卷积神经网络作为其重要算法被广泛应用到计算机视觉、自然语言处理及语音处理等各个领域,并取得了比传统算法更为优秀的成绩。但是,卷积神经网络结构复杂,参数量和计算量巨大,使得很多算法必须在GPU上实现,导致卷积神经网络难以应用在资源不足且实时性要求很高的移动端。为了解决上述问题,文中提出通过同时优卷积神经网络的结构和参数来对卷积神经网络进行压缩,以使网络模型尺寸变小。首先,根据权重对网络模型结果的影响程度来对权重进行剪枝,保证在去除网络结构冗余信息的冋时保留模型的重要连接;然后通过量化感知( quanTIκaτion- awareτraining)对卷积神经网络浮点型权重和激活值进行完全量化,将浮点运算转换成定点运算,在降低网络模型计算量的冋时减少网络模型的尺寸。文中选用 tensorflow深度学习框架,在 Ubuntu16.04操作系统中使用 Spyder编译器对所提算法进行验证实验结果表眀,该算法使结枃简单的 Lenet模型从l.64M压缩至θ.36M,压缩比达到η8%,准确率只下降了了0.016;使轻量级网络 Mobilenet模型从16.9M压缩至3.1M,压缩比达到81%,准确率下降0.03。实验数据说明,在对卷积神经网络权重剪枝与参数量化辶后,该算法可以做到在准确率损失较小的情况下,对模型进行冇α压缩,解决了卷积神经网络模型难以部署到移动端的问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值