[PfQ阅读笔记]FILTER PRE-PRUNING FOR IMPROVED FINE-TUNING OF QUANTIZED DEEP NEURAL NETWORKS
这里写自定义目录标题PfQ阅读笔记摘要一、INTRODUCTION二、RELATED WORK AND PROBLEM在这个地方,我会根据自己的理解阐述为什么PfQ有效的原因三.PROPOSALEXPERIMENTS
PfQ阅读笔记
此篇文章最大的亮点是发现了在量化过程中,权重的动态范围会因为某些输入变大,这对量化来说是不太友好的,因此提出了PfQ对相应的输入进行pruning,然后为了保证输出不变,将对应的效果叠加到了b中,现在开始介绍这篇paper
文章目录PfQ阅读笔记摘要一、INTRODUCTION
原创
2020-12-03 11:12:28 ·
299 阅读 ·
0 评论