Knowledge Isomorphism between Neural Networks论文笔记
Published in ArXiv 2019 原文地址
本片文章是利用knowledge isomorphism (知识同构性)去解释模型压缩和知识蒸馏。个人感觉,有值得肯定的地方。
Motivation
本文假设有两个神经网络A和B, x A x_{A} xA和 x B x_{B} xB表示它们在同一个task上的输出的特征。我们将其分解(disentangle)为 x A = x ^ A + ϵ A x_{A} = \hat{x}_{A} + \epsilon_{A} xA=x^A+ϵA和 x B = x ^ B + ϵ B x_{B} = \hat{x}_{B} + \epsilon_{B} xB=<