目录
10.滑动平均最大最小值(MovingAverageMinMax)
1.模型量化优点
模型量化是指将神经网络的浮点算法转换为定点。量化有一些相似的术语,低精度(Low precision)可能是常见的。
- 低精度模型表示模型权重数值格式为 `FP16`(半精度浮点)或者 `INT8`(8位的定点整数),但是目前低精度往往就指代 `INT8`。
- 常规精度模型则一般表示模型权重数值格式为 `FP32`(32位浮点,单精度)。
- 混合精度(Mixed precision)则在模型中同时使用 `FP32` 和 `FP16` 的权重数值格式。 `FP16` 减少了一半的内存大小,但有些参数或操作符必须采用 `FP32` 格式才能保持准确度。
2.常用模型量化的方案
在实践中将浮点模型转为量化模型的方法有以下三种方法:
1. `data free`:不使用校准集,传统的方法直接将浮点参数转化成量化数,使用上非常简单,但是一般会带来很大的精度损失,但是高通最新的论文 `DFQ` 不使用校准集也得到了很高的精度。
2. `calibration`:基于校准集方案,通过输入少量真实数据进行统计分析。很多芯片厂商都提供这样的功