论文阅读笔记《Few-shot Object Detection via Feature Reweighting》

小样本学习&元学习经典论文整理||持续更新

核心思想

  本文提出一种小样本目标检测算法。整体网络结构采用单阶段目标检测的形式,利用一个预测网络同时输出目标框的位置及类别结果。网络结构如下图所示
在这里插入图片描述
  首先,查询集图片 I I I经过特征提取网络 D \mathcal{D} D得到对应的特征图 F = D ( I ) F=\mathcal{D}(I) F=D(I),支持集图片 I i I_i Ii和利用真实边界框制作的掩码图 M i M_i Mi一起输入到重加权模块(Reweighting Module) M \mathcal{M} M中,得到每个类别对应重加权向量 w i = M ( I i , M i ) w_i=\mathcal{M}(I_i,M_i) wi=M(Ii,Mi)。然后将重加权向量 w i w_i wi作为卷积核,分别对查询集图片对应的特征图 F F F做1 * 1的卷积操作,得到重加权后的特征图 F i F_i Fi,计算过程如下
在这里插入图片描述
最后将重加权后的特征图 F i F_i Fi输入到预测网络 P \mathcal{P} P中,输出每个预定义的锚点(anchor)对应的预测结果
在这里插入图片描述
式中 o o o表示存在物体的概率, ( x , y , h , w ) (x,y,h,w) (x,y,h,w)表示编辑框的位置和尺寸, c i c_i ci表示物体属于类别 i i i的概率。

实现过程

网络结构

  特征提取网络和预测网络采用YOLOv2的结构(DarkNet-19),重加权模块采用一种轻权重的CNN结构,即参数量较小的CNN,文中说细节结构见支持材料,但我并没有找到。

损失函数

  整个网络的训练目标函数如下
在这里插入图片描述
式中 θ D , θ M , θ P \theta_{D},\theta_{M},\theta_{P} θD,θM,θP分别表示特征提取网络,重加权模块和预测网络的参数。目标检测损失函数包含一下三个部分
在这里插入图片描述
式中 L c L_c Lc表示分类损失,作者利用softmax函数将各个类别的预测结果归一化到[0,1]的范围内,得到每个类别的概率值 c ^ i \hat{c}_i c^i,然后利用下式计算分类损失 L c L_c Lc
在这里插入图片描述
式中 1 ( ⋅ , i ) \mathbb{1}(\cdot,i) 1(,i)是一个指示函数,表示当前的锚点框是否属于类别 i i i。编辑框回归损失 L b b x L_{bbx} Lbbx和置信度损失 L o b j L_{obj} Lobj均与YOLOv2中计算方法相同。

训练策略

  训练过程分为两个阶段:第一阶段在基础数据集上进行训练;第二阶段在基础数据集和新数据集上做微调训练,为了保证类别间的平衡性,基础数据集中每个类别的样本数量与新数据集每个类别的样本数量保持一致。

创新点

  • 在YOLOv2的基础上增加了重加权模块,利用支持集图像信息帮助网络提高目标检测的能力

算法评价

  本文可能是最早采用单阶段形式实现小样本目标检测的文章,相对于两阶段形式,单阶段方法将定位与分类任务融于一体,同时完成,这对于小样本任务来讲更加困难。作者利用重加权模块将支持集图像的信息很好的融合到查询集图像对应的特征信息中,帮助网络实现了单阶段小样本学习任务。但该方法同样需要在预测时同时输入查询集图片和多种类别的支持集图片,在实际应用中并不方便。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。在这里插入图片描述

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深视

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值