- 博客(3)
- 收藏
- 关注
原创 QIL:《Learning to Quantize Deep Networks by Optimizing Quantization Intervals with Task Loss》论文学习
CVPR2019Abstract我们建议通过一个可训练的量化器来学习量化激活和权重,从而转换和离散它们。具体地说,我们参数化量化区间,并通过直接最小化网络的任务损失得到其最优值。在4bit能达到32bit的精度,在更低比特也能减小精度下降。此外,我们的量化器可以在异构数据集上进行训练,因此可以用于量化预先训练过的网络,而无需访问它们的训练数据。用ResNet-18,-34和AlexNet,在imagenet上训练,达到了当时最先进的精度。Introduction(优化整网loss,学
2021-11-19 19:39:26 2371
翻译 《HAWQ-V3: Dyadic Neural Network Quantization》论文阅读
HAWQ-V3阅读笔记混合精度量化2021的CVPR
2021-11-16 20:59:14 1085
原创 NAS文章:Once-for-all代码分析1-代码结构
Once-for-all学习ofaimagenet_classification 超网训练部分data_providers 提供数据集elastic_nn 弹性结构modules 弹性模块定义dynamic_layers.pydynamic_op.pynetworks 弹性网络定义ofa_mbv3.pyofa_proxyless.pyofa_resnets.pytraining 渐进式训练代码progressive_shrinking.py PS tra
2021-04-22 10:52:57 753
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人