IMPROVE OBJECT DETECTION WITH FEATURE-BASEDKNOWLEDGE DISTILLATION: 论文和源码阅读笔记

本文深入探讨了目标检测中知识蒸馏的挑战,包括前景背景像素不平衡和关系信息缺乏。通过引入注意力引导机制和非局部知识蒸馏,改善学生网络的学习效果。实验表明,这种方法能有效提高一阶段、二阶段和无锚点检测器的AP。论文链接和源码已提供。
摘要由CSDN通过智能技术生成

paper:https://openreview.net/pdf?id=uKhGRvM8QNH

code:https://github.com/ArchipLab-LinfengZhang/Object-Detection-Knowledge-Distillation-ICLR2021

1、摘要:

    开篇paper提到kd之所以在目标检测上的失败主要是两个原因:1、前景和背景之间的像素不平衡。 2、缺乏对不同像素之间的关系的蒸馏。基于这两个原因,本文提出了注意力引导机制和non-local机制来解决,让学生网络能够更加努力的学习teacher的模型,这样不仅能够单个像素的特征,还能够学习non-local模块捕获不同像素之间的关系,paper在one-stage、two-stage、anchor-free上都实现了ap的提升。

 1、Introduction

开始介绍了kd在object detection应用难的问题,如下所示:

    1、Imbalance between foreground and background

    在待检测图像中,背景像素比前景像素更多,在本文之前的kd,student总是被训练区模仿相同特征的所有像素的特征,因此student将大部分注意力都放在了背景像素里面,这抑制了对前景像素的学习,因此本文提出了注意力引导kd的机制,它只蒸馏关键的前景像素,采用注意力机制作为kd的mask,像素中具有较高的注意力值的可以视为前景对象的像素,然后student更高优先级的去学习

    2、Lack of distillation on relation information.

    现有的kd方法只考虑了单个像素的信息或者特征&#x

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值