【知识蒸馏+量化】(二)Data-Free Network Quantization with Adversarial Knowledge Distillation
论文地址:
https://arxiv.org/abs/2005.04136
代码地址:
https://github.com/da2so/Data-Free_Network_Quantization_With_Adversarial_Knowledge_Distillation
主要问题:
现有的模型压缩方法(包括知识蒸馏)的一个问题是,前提假设原始的训练数据是可以在压缩过程中访问的,但是随着数据集的增大,数据集的分布变得更加昂贵和差异,此外数据隐私和安全已经成为深度学习的主要问题之一
主要思路:
这篇文章提出了无数据的对抗性知识蒸馏,它最小化了来自生成器的任何对抗性样本的教师和(量化)学生输出之间的最大距离
为了生成类似于原始数据的对抗性样本,作者还提出了生成的批归一化数据和教师原始数据的匹配统计数据
具体实现:
基本符号:
假设