Paper地址:https://arxiv.org/abs/2111.11837
GitHub链接:https://github.com/yzd-v/FGD
方法
FGKD(Focal and Global Knowledge Distillation)通过Focal distillation与Global distillation的结合,兼顾了Instance-level信息、Spatial/Channel Attention以及全局相关性信息。
首先定义前背景分离Mask、Attention等,然后基于Feature map计算Focal distillation(由Feature loss与Attention lo