网络压缩-量化方法对比

这篇博客探讨了用于压缩神经网络模型的量化技术,包括SVD分解、二值化、K-Means标量量化、乘积量化和残差量化。通过对AlexNet全连接层的实验对比,发现乘积量化(PQ)在保持精度的同时提供了较好的压缩效果。这些基础量化方法为更高级的压缩技术奠定了基础。
摘要由CSDN通过智能技术生成

本次介绍的是一种压缩神经网络模型大小的方法,来自《2014 arxiv:Compressing Deep Convolutional Networks using Vector Quantization》。该方法和很多之前的神经网络压缩方法一样,基本只对全连接层有效,因此这里权作了解。

由论文名可以看出,主要是对密集权重矩阵进行量化编码来实现压缩。

论文做了很多种量化方法的对比试验,不过都只针对全连接层,至于为什么不处理卷积层,大家可以考虑一下。下面就简单介绍一下这些方法。

SVD分解

全连接层的权重矩阵记作 \(W\in R^{m\times n}\) ,首先对 \(W\) 进行 \(SVD\) 分解,如下:

\(W=USV^T\)

为了能够用两个较小的矩阵来表示 \(W\) ,我们可以取奇异值的前 \(K\) 个分量。于是,W可以通过下式重建:

\(\hat W=\hat U\hat S{\hat V}^{T} ,其中\hat U\in R^{m\times k}\quad \hat V\in R^{n\times k}\)

我们唯一需要保存的就是3个比较小的矩阵 \(U,S,V\) ,我们可以简单算一下压缩比为 \(mn/k(m+n+1)\)

二值化

这种量化方法的想法来自于Dropconnect,量化如下:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值