#今日论文推荐# 目标检测-定位蒸馏:logit蒸馏与feature蒸馏之争
方法概括:把用于分类 head 的 KD(知识蒸馏),用于目标检测的定位 head,即有了 LD(Localization Distillation)。
做法:先把 bbox 的 4 个 logits 输出值,离散化成 4n 个 logits 输出值,之后与分类 KD 完全一致。
意义:LD 使得 logit mimicking 首次战胜了 Feature imitation。分类知识与定位知识的蒸馏应分而治之、因地制宜。
论文题目:Localization Distillation for Object Detection
详细解读:https://www.aminer.cn/research_report/62661c097cb68b460fa83931?=csAMiner利用数据挖掘和社会网络分析与挖掘技术,提供研究者语义信息抽取、面向话题的专家搜索、权威机构搜索、话题发现和趋势分析、基于话题的社会影响力分析、研究者社会网络关系识别等众多功能。https://www.aminer.cn/research_report/62661c097cb68b460fa83931?=cs
全部论文免费下载:https://www.aminer.cn/?f=cs