Training with Quantization Noise for Extreme Model Compression

https://arxiv.org/pdf/2004.07320.pdf
论文的核心思想如下:

在这里插入图片描述
针对上图进行实例分析:
如对卷积层weight为(64,64,3,3)进行量化

  • 设置centroids数目如(32,9)其中9表示3*3卷积核的flatten
  • 通过k-means进行选取centroids

之后进行编码(codebook),生成三个矩阵:

  • centroids=(32,9)
  • assignments=[4096]来源(64*64),其中里面的值对应centroids的index
  • counts=[32]
    其中centroids表示base字典,之后将根据assignments进行恢复原始到(64,64,3,3)权重
    counts矩阵中的所有值sum之后为4096,表示不同区间的分布状态。

如果仅仅进行此转换,这种转换是不可微的,且使用直通估计器(straight through estimator,STE)来逼近梯度。STE 在梯度中引入了一个偏置,该偏置取决于权重的量化级别,因此也取决于压缩率。
在每个前向传播过程中,随机选择这些块的子集,并添加一些失真;在反向传播过程中,使用 STE 逼近失真的权重,进而计算所有权重的梯度值。

===================下面开始分析论文中的证明过程

  • Quantizing Neural Networks
    在这里插入图片描述
    矩阵分解m*q个block子矩阵,

  • 正常标量的量化
    在这里插入图片描述

  • Product Quantization
    量化后的矩阵通过STE转化逼近原有矩阵
    在这里插入图片描述
    Iterative PQ,如何将loss更新codebook,见下面公式:
    在这里插入图片描述
    论文提出的内存计算公式:
    在这里插入图片描述

  • 训练网络是采用的 Training Networks with Quantization Noise

在这里插入图片描述

  • 主要实验结果
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值