Quasi-Dense Similarity Learning for Multiple Object Tracking(用于多目标跟踪的拟密集相似度学习)

Quasi-Dense Similarity Learning for Multiple Object Tracking

论文:下载地址
代码:下载地址

QDTrack:

一、 介绍

二、 方法
1. 目标检测
2. 准密集对比学习
3. 目标关联

三、 实验

一、介绍

之前的工作存在只利用IOU或者中心距离等其他像素级别的先验知识进行追踪,这表明确实只要目标间检测的空间信息足够精确,确实可以有好的结果。但是这些方法大多只适合一些简单的场景,当目标拥挤遮挡下,位置信息很容易产生误导。为此一些方法就会尝试引入运动估计或位移回归来精确位移估计。

但是机器不像人,人可以很清楚的通过外貌信息来分别人,但是对于计算机,只有外貌带来的特征往往不会被处理的有效,因此会对外貌信息做一些搜索区域的限制等处理。

过去工作,相似度学习知识是作为一个检测后的处理阶段,并且只是用稀疏GT框作为训练样本。事实上,如果目标的外观表示被尽可能的学到,那么就使用embedding的最近邻方法也可以关联和区别实例。
在这里插入图片描述

**现有的多目标跟踪方法仅将稀疏的地面真实匹配作为训练目标,而忽略了图像上的大多数信息区域。**除了GT框,其实密集的检测框也是有监督价值的,接近GT框的检测框,可以提供类似正样本的参考。相反接近背景的可以作为负样本的参考。在本文中,我们提出了拟密集相似度学习,它在一对图像上密集地对数百个区域提议进行采样,以进行对比性学习。

通过对比损失进行学习参数,密集采样会覆盖图片上大多数的信息区域。通过对比学习,一个样本会被训练同时区分所有的Proposal,相较于只使用GT标签来训练监督,更加的强大且增强了实例的相似度学习。对于消失轨迹的处理,会将背景作为一类,从而进行双向softmax增强一致性。实验采用使用轻量级embedding提取器和残差网络的Faster R-CNN来构建QDTrack模型。

并且不同于其他工作依赖运动模型和位移预测,将外观相似度作为第二补充,QDTrack直接从密集连接对比对中学习实例相似度,且最终关联步骤只是简单的最近邻搜索。

尽管简单,但QDTrack的性能优于MOT,BDD100K,Waymo和TAO跟踪基准上的所有现有方法。在不使用外部训练数据的情况下,它在MOT17上以20.3 FPS时可达到68.7 MOTA。与具有类似检测器的方法相比,它可将MOTA提升近10点,并显着减少BDD100K和Waymo数据集上ID切换的次数。

二、方法论

作者定义了数据关联时三种匹配:

  1. 密集匹配:在所有像素的候选框之间进行匹配
  2. 拟密集匹配:仅考虑信息丰富区域的可能候选目标间的匹配
  3. 稀疏匹配:只考虑GT标签作为候选匹配

1.目标检测

论文中使用带有FPN的Faster R-CNN作为检测器。整个任务可以优化为一个多任务损失函数:
在这里插入图片描述
RPN loss为Lrpn,分类损失为Lcls,回归损失为Lreg和原论文相同,两个超参默认为1。

2.拟密集相似度学习

在这里插入图片描述
如上图,一张关键帧的图片I1用于训练,随机选择一个时序邻域帧上的推理图片I2,邻域距离限制为k ∈ [ − 3 , 3 ] 个时间间隔。使用RPN(区域生成网络)从两张图片产生RoI,通过RoI Align从FPN来获得不同尺度的相应特征图.增加了一个轻量embedding head,平行于原始的bounding box head,用于提取RoI的特征embedding。若RoI和某个ID的IoU大于α1 = 0.7 ,则定义为该ID的正样本。若小于α2 = 0.3则定义为负样本。不同帧上的RoI关联相同的ID则互相为正样本,否则互为负样本。

假设关键图上有V个样本用于训练,推理图上有K个样本用作对比目标。对于每个训练样本,使用带非参数softmax和交叉熵来优化特征embedding:
在这里插入图片描述
v,k+,k-分别为训练样本,正目标样本,负样本的特征embedding。总体损失为所有训练样本的损失的均值,上面只显示了一个样本的一般情况即只有一个相关的正样本情况下的损失。

不同于过去的只是用GT框来进行稀疏匹配学习实例相似性,这里要匹配这对图上的所有RoI,即I1上的每个样本都要匹配I2上的样本,如此,关键帧上的训练样本在推理帧上就不一定只有一个正目标,所以公式2可以改写为:
在这里插入图片描述
但是上述公式,负样本会被考虑多次,而正样本只会考虑一次,将公式2重新修改为:
在这里插入图片描述
如此,多个正样本的情况下,可以将它拓展为:
在这里插入图片描述
进一步定义辅助的L2损失:
如果两个样本的匹配为正,则c为1,否则为0。 请注意,辅助损失旨在限制对数大小和余弦相似度,而不是提高性能。
在这里插入图片描述
整个网络的联合优化为:
在这里插入图片描述
实验中γ1 设为0.25,γ2 设为1.0 。采样所有正样本和三倍多的负样本来计算辅助损失。

3.目标关联

  • 双向softmax
    在这里插入图片描述

    一个主要策略就是上图所示的双向匹配。假设t 帧存在N 个检测目标,特征embedding为n。过去x 帧存在的M 个匹配候选对象,特征embedding为m。通过双向softmax获得对象和候选匹配的相似度f:
    在这里插入图片描述
    由这个f,直接通过简单的最近邻搜索获得最终关联。

  • 无目标情况
    若特征空间无目标对象,则不应和任何候选进行匹配。包括新出现的目标,消失的轨迹,以及一些假正性情况。通过双向softmax,这类目标和任何匹配候选最终都会获得很低的相似度得分。

    当检测置信度很高时,那就是新目标,作为新的轨迹开端。实验过程中,对于得分很低的目标,以往操作会直接丢弃,不参与匹配轨迹,这里作者认为尽管大多是都是假正性的,但是任然是有用的,因为可能会有未来的目标会和他们相匹配,因此会保留。实验表明这样的操作会减少假正的数量。

  • 多目标情况
    为了避免一个目标匹配上多个候选,会采用一个内间NMS进行去除后处理重复,对于检测置信度高于0.5的目标IoU上阈值设置为0.7保留,对应的,检测置信度低于0.5的,NMS下阈值设置为0.3直接丢弃。

三、实验

MOT16、17数据集实验结果:
在这里插入图片描述
BDD100K数据集实验结果:
在这里插入图片描述
Waymo追踪验证集实验结果:
在这里插入图片描述

消融实验:

拟密集匹配和双向softmax的消融实验:
在这里插入图片描述
不同信息的消融实验:
在这里插入图片描述
可以看出,该方法也证明了外貌信息的embedding对于提升指标的重要性,知识如何充分的利用以及表示这个embedding就显得很重要,下面就展示了不同匹配所对应的embedding可视化,可以看出拟密集的方法,特征更加的独立。
在这里插入图片描述
BDD100K实例分割追踪实验结果:
-fix只训练mask head,其余的在BDD100K与训练后固定。
在这里插入图片描述
在这里插入图片描述

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值