本发明涉及深度学习模型压缩领域,特别是面向嵌入式系统的深度卷积神经网络的定点化领域。
背景技术:
随着人工智能的快速发展,以深度学习为主导的算法所设计的应用已经越来愈多的出现在人们的生活,工作和娱乐中。然而深度神经网络往往由其十几甚至上百的卷积层构成,计算过程中产生的特征映射需要占据大量的存储空间。这意味着对于嵌入式应用对导致产品面积大大增加。所以,研究深度卷积神经网络的定点压缩问题,对于减小特征映射的存储开销,提高深度学习的实用价值有着非常非常重要的意义。
目前的深度卷积神经网络中的特征映射定点量化中主要是通过层间规则或者非规则量化方法,以减少特征映射的存储开销。
技术实现要素:
发明目的:本发明所要解决的技术问题是针对深度卷积神经网络中特征映射存储开销过大的问题,提供一种基于深度卷积神经网络的层内非均匀的等间隔定点量化方法,从而在保持模型精度的情况下使得存储开销得以大大减少。
为了解决上述技术问题,本发明公开了一种基于深度卷积神经网络的层内非均匀的等间隔定点量化方法,包括以下步骤:
步骤一,选取部分深度卷积神经网络的能够正确识别的图像,并提取识别过程中产生的特征映射;
步骤二,对卷积神经网络中的特征映射进行层间非规则量化,在保持模型精度情况下,确定每一层卷积网络的最大量化位数;
步骤三,对于模型中的每一卷积层,在最大量化位数能表示的范围内,以一定间隔选取定点值,并用定点值代表特征映射中的值,并以索引的形式进行保存;
步骤四&#x