AND THE BIT GOES DOWN: REVISITING THE QUANTIZATION OF NEURAL NETWORKS

本文提出了一种针对卷积网络的压缩方法,专注于保持网络输出的重构质量而非权重。通过使用向量量化,特别是产品量化(PQ),在压缩ResNet-50模型至5MB的同时,保持了76.1%的ImageNet分类精度。此外,该方法还应用于Mask R-CNN,实现了26倍的压缩。这种方法利用了层间相关性和加权k-平均,对未标记数据进行蒸馏训练,以指导逐层压缩并微调码字。
摘要由CSDN通过智能技术生成


在这里插入图片描述

ABSTRACT

在本文中,我们解决了减少卷积网络架构的内存占用的问题。我们引入了一种向量量化方法,旨在保持网络输出的重构质量,而不是其权值。我们的方法的原理是,它最小化了域内输入的损失重构误差。我们的方法只需要在量化时使用一组未标记的数据,并允许通过使用字节对齐的码本(byte-aligned codebooks)存储压缩的权值来对CPU进行有效的推断。我们通过将高性能的ResNet-50模型量化为5MB(20×压缩因子)来验证我们的方法,同时在ImageNet对象分类上保持前1的精度76.1%,并通过用26×因子压缩掩模R-CNN来验证我们的方法。

补充知识:码本是什么?

我觉得这个解释我容易理解,所以笔记就记录了
在这里插入图片描述

1 IN

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

m0_49234921

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值