Real-Time Visual Object Tracking via Few-Shot Learning

论文

跟踪可以看成是一个特殊的 few-shot learning (FSL) 问题,本文提出了一个通用的两阶段框架,它能够使用大量的 FSL 算法并且保持较快的速度。第一阶段通过 SiamRPN 生成若干潜在候选框,第二阶段通过少样本分类的思想对候选框进行分类。按照这种 coarse-to-fine 结构,第一阶段为第二阶段提供稀疏的样本,在第二阶段可以更方便、高效地进行多种 FSL 算法。作者选取了几种基于优化的少样本学习方法进行证明。此外,该框架可将大多数 FSL 算法直接应用到视觉跟踪中,使研究人员能够在这两个领域相互交流。

Introduction

跟踪任务要求在有限的时间内通过少量数据学习对目标和背景的分类,这与 FSL 任务非常相似。在少样本学习中,我们假设训练任务和新任务之间存在共享的元知识;在视觉跟踪领域,这可以解释为模型在序列中跟踪任何未见过对象的适应性。

已经有一些方法将 FSL 的概念引入跟踪了,比如 DiMP 和一些 MAML 的方法,它们将在线更新纳入离线训练阶段作为内环 (inner loop),使得在线更新可以由手工设计转变成数据驱动。然而,这些方法大多局限于对整个图像特定卷积核进行优化设计,而不是像在 FSL 中,使用稀疏样本进行更定制化的权值学习 (例如矩阵乘法因子),这限制了直接引入各种新的 FSL 算法,因为直接应用各种 FSL 算法,将整个图像的所有位置作为输入样本,必然会牺牲其跟踪速度,而且大量简单负样本会在学习中占主导导致模型判别力下降。

因此作者提出这个通用的两阶段级联结构,在第一阶段过滤掉大量简单负样本,从而使得第二阶段可以应用各种 FSL 算法在信息丰富的稀疏样本上实现高效的跟踪。作者选取了几种具有不同目标函数,优化方法,或解空间的少样本学习方法进行验证,速度在 40-60 FPS。

Method

Cascaded Tracking

整体跟踪框架如图 1 所示,第一阶段利用 SiamRPN++ 生成若干个候选框,经过 ROI Align 后送入第二阶段进行少样本分类。第二阶段是一个 N-shot-2-way 的分类任务,所有候选使用在线生成的伪标签进行标记。

Second Stage as Few-Shot Learning

首先用数学形式定义任务,公式比较多直接贴图:

其中\theta是 meta-training stage (inner loop) 中使用 base lossL_{base} 优化得到的 sequence-specific 参数;然后用\theta去计算 meta lossL_{meta},用于 meta-testing (outer loop) stage 来更新 few-shot learner 的参数\rho。而 \varphi 表示 feature embedding 的参数,就是前面一大堆特征提取之类的。

这里的 meta loss 是用于分类,所以采用 focal loss:

其中 \gamma是可学习的缩放因子,\theta^T 是前景和背景的权重。\alpha, \beta是 focal loss 的超参数。

few-shot learner \Lambda的选择对于公式 1 的影响巨大,它会被用来分类第一阶段得到的稀疏候选样本,下面介绍几种常用的基于优化(optimization-based)的方法。

Optimization-Based Few-Shot Learners

首先默认目标是一个线性凸优化问题。

RR-prim-itr 就是在原空间求解岭回归问题,base loss L_{base} 为 L2 loss,可以看成 MAML 的一种特例。

其中\omega_n是每个样本的权重,为了加速优化,借鉴 DiMP 中的最速梯度下降:

RR-dual-itr 迭代求解对偶空间中的岭回归,\theta 当成训练集的特征向量的线性组合。对偶变量a 作为权重因子。

将公式 5 带入公式 3,得到优化目标

用二次规划的方式求解对偶变量a ,同样可以利用 GPU 加速。此外,特征向量在训练集中进行线性组合可以缓解过拟合问题

RR-dual-cls 在对偶空间中开发了岭回归的封闭解用于分类。

优势就是把原始闭式解形式中的\Phi_T\ \Phi变成了\Phi \Phi_T,使得计算量由O (Nd^2)下降到了 O (N^2d) ,样本量 N 远小于特征维数 d。

SVM-dual-itr 在对偶空间迭代求解稀疏核用于线性分类。主要解决岭回归容易过拟合以及对噪声不鲁棒的问题。用 SVM 替换了最小二乘,细节不太明白,要去看原文。

Online Tracking

Candidate Selection 候选框根据第一阶段的检测结果用阈值为 0.2 的 NMS 进行筛选,再通过 ROI Align 作用于第二阶段。初始化时选择 24 个样本,IOU 最高的作为正样本,其余为负样本,并通过数据增广生成额外的 8 个正样本,共同用于初始化 few-shot learner。跟踪过程中,选择 NMS 后 M=8 个样本送入 few-shot learner 进行判断输出最终结果。用融合得分(两个阶段的得分加权相加)top-k 个候选框更新 support set 中最老的样本,其中最高的为正样本,其余为负样本,k=4。

Support Set Maintenance 先入先出(FIFO),对于每个样本赋予权重 \omega,随着与当前帧的间隔而指数衰减。原空间中的求解存储 1000 个样本,对偶空间只有 60 个,一方面是对 CPU 资源要求高,另外 60 个的性能已经很好。此外,第一帧的正样本永远会留在 support set 中。

Few-Shot Learner Update 原空间用公式 4 更新,对偶空间用滑动平均更新

Stage Fusion 将两个阶段的分类和回归结果融合,第二阶段除了得到分类得分,还会进行类似 RCNN 的回归 refine。

Implementation Details

训练类似 DiMP,每个 task 从一个视频中选择 3 个 support 和 2 个 query。对于第二阶段,NMS 后采样 16 个样本,IOU 大于 0.8 为正,小于 0.2 为负。每张图片总共 8 个样本,其中最多两个正样本。meta-training 和 meta-test 均按照上述准则。第一阶段的 SiamRPN++ 用 ATSS 进行 label assign。

训练 loss 如下:

两个阶段都需要分类回归,分类为 focal loss,回归为 L1 loss。注意这里 rcnn 的回归是在第一阶段的正样本基础上进行的。

Experiments

Ablation Study

比较了 baseline(第一栏),不使用 FSL 的基于全连接的距离度量方法(第二栏),metric-based 少样本学习方法(第三栏),以及本文使用的四种 optimization-based 少样本学习方法(第四栏)。

只用第一阶段方法,SiamRPN++ 远不如 DiMP;加入第二阶段后,这个差距被消除了,且速度将近领先了 3 倍。

support set 数量的影响,对于不同数据集最佳的数量是不一样的。但是即使是最低限度的 M=40 鲁棒性依然不错。

最后可视化了候选框及置信度,可以看到第二阶段对于区分目标和干扰物非常有效。

Comparison with State-of-the-Arts

总结

本文的创新点主要集中在两阶段和少样本学习。这两个东西单独来看都分别有人做过了,像 SPM,SPLT 就是先检候选框再分类的两阶段方法;而 DiMP 还有一些用了 MAML 的跟踪方法都属于少样本学习。作者将二者结合,最大的好处在于第二阶段得到的稀疏样本更适合 FSL 的任务设置,可以不用局限于任何特定类型的 FSL 算法,大幅加强了跟踪和 FSL 的联系。

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值