1、常见的基本操作
文章代表Learning Efficient Object Detection Models with Knowledge Distillation
如上图所示 ,
首先在teacher-model和student-model的中间层featuemap进行学习和蒸馏,如果遇到st-model和te-model的feature-mapshape不一致时,则使用adaption模块来完成统一,然后计算l2距离。
其次,RPN\RCN部分的分类的暗知识以及回归层的暗知识,其实也是featremap,通过计算普通的损失以及蒸馏损失来完成知识蒸馏。
其中