AND THE BIT GOES DOWN: REVISITING THE QUANTIZATION OF NEURAL NETWORKS
ABSTRACT
在本文中,我们解决了减少卷积网络架构的内存占用的问题。我们引入了一种向量量化方法,旨在保持网络输出的重构质量,而不是其权值。我们的方法的原理是,它最小化了域内输入的损失重构误差。我们的方法只需要在量化时使用一组未标记的数据,并允许通过使用字节对齐的码本(byte-aligned codebooks)存储压缩的权值来对CPU进行有效的推断。我们通过将高性能的ResNet-50模型量化为5MB(20×压缩因子)来验证我们的方法,同时在ImageNet对象分类上保持前1的精度76.1%,并通过用26×因子压缩掩模R-CNN来验证我们的方法。
补充知识:码本是什么?
我觉得这个解释我容易理解,所以笔记就记录了