kcf算法中cos_window是什么意思_视觉多目标跟踪算法综述(上)-附开源代码下载链接整理...

1. 导言

目标跟踪是机器视觉中一类被广为研究的重要问题,分为单目标跟踪与多目标跟踪。前者跟踪视频画面中的单个目标,后者则同时跟踪视频画面中的多个目标,得到这些目标的运动轨迹。

基于视觉的目标自动跟踪在智能监控、动作与行为分析、自动驾驶等领域都有重要的应用。例如,在自动驾驶系统中,目标跟踪算法要对运动的车、行人、其他动物的运动进行跟踪,对它们在未来的位置、速度等信息作出预判。

目标跟踪算法可以进行轨迹特征的自动分析和提取,以弥补视觉目标检测的不足,有效的去除错误的检测,增加遗漏的检测,为进一步的行为分析提供基础。相对于多目标跟踪算法,视觉单目标跟踪算法研究的更为广泛,当前解决的相对更好。典型的如Mean shift算法,用卡尔曼滤波、粒子滤波进行状态预测,TLD等基于在线学习的跟踪,KCF等基于相关性滤波的算法等。

对于单目标跟踪算法的测试视频来说,存在一个先验假设是目标总是在摄像机视场范围内,因此即使把矩形框固定在初始位置,有时候仍然能得到一个看起来还好的跟踪结果(如图1)。

991e4c736fd3e31467cbe30e1636caed.png

图1: 采用固定矩形框的0阶跟踪方案有时候能够得到可接受的跟踪结果

多目标跟踪问题没有上述的先验假设,一般情况下,多目标跟踪的对象位置变化很大,跟踪对象可以从场景入口进入,从出口离开,跟踪目标个数不固定。另外,多目标跟踪问题通常追踪给定类型的多个对象,同类对象具有一定的外观轮廓相似性,如下图跟踪场景:

66a16243a5227696973fcd57f2a6a243.png

图2:CAVIAR数据中一些行人在商店长廊中经过

相对来说,多目标跟踪问题更加复杂,除了单目标跟踪中存在的物体形变、背景干扰等因素。通常还需要解决以下一些问题:

  • 跟踪目标的自动初始化和自动终止,即处理新目标的出现,老目标的消失
  • 跟踪目标的运动预测和相似度判别,即准确的区分每一个目标
  • 跟踪目标之间的交互和遮挡处理
  • 跟丢目标再次出现时,如何进行再识别问题

多目标跟踪任务需要解决比单目标跟踪更多的问题和难点,如何有效地解决这些问题对多目标跟踪算法有重要意义。在这篇文章中,SIGAI将和大家一起对一些经典的视觉多目标跟踪算法进行回顾和归纳,以理解视觉多目标跟踪算法的框架和当前主流算法的框架和基本原理,如果对本文的观点持有不同的意见,欢迎向我们的公众号发消息一起讨论。

2. 视觉多目标跟踪算法的分类

多目标跟踪问题最早出现在雷达信号中目标运动轨迹的跟踪,如同时跟踪飞过来的多架敌人的飞机和多枚导弹。这些算法后来被借鉴用于机器视觉领域的多目标跟踪任务,随着计算机视觉领域的深入研究,近年来研究者对多目标跟踪算法从不同的方面进行了扩展。比如通过扩展单目标跟踪算法来支持多目标的情况,更多的工作从整个视频场景出发,对所有的目标轨迹做了统一的考虑。根据不同的分类标准,多目标跟踪算法有不同的分类方法。比如按照预测校正的跟踪和按照关联方式的跟踪,按照离线方式的关联跟踪和按照在线方式的跟踪,按照确定性推导的跟踪算法和按照概率统计最大化的跟踪等。

按照轨迹形成的时间顺序,多目标跟踪可以分为在线方式的跟踪算法以及离线形式的跟踪过程。如果跟踪的顺序是逐帧方式的:即为在线方式的目标跟踪方法。在线多目标跟踪与人眼实时跟踪目标过程类似,是对每个目标的状态进行估计,然后考虑整体状态的合理性进行约束。这个过程也可以简化为:获得每帧图像检测结果,把检测结果同已有的跟踪轨迹进行关联。如果跟踪算法运行是在视频已经获取结束,所有检测结果都已经提前获取情况下,这种跟踪方法为离线形式的多目标跟踪。离线多目标跟踪算法把检测结果集合作为观察,把轨迹看作检测集合的一种划分,因此跟踪问题转化为子集优化的过程。

按照跟踪算法形式化表示和优化框架过程,多目标跟踪可以分为确定性推导的跟踪和概率统计最大化的跟踪算法(如图3)。

c0d2510a02cc8167829825fe0c103193.png

图3:按照多目标跟踪形式化分为概率统计最大化的多目标跟踪和确定性推导的多目标跟踪

在确定性推导的多目标跟踪框架中,我们把检测和轨迹和匹配看作为二元变量,通过构

造一个整体的目标函数,我们求变量的最佳值,使得目标函数最优,从而得到检测和轨迹的最佳匹配。这种整体的目标函数可以构造为二部图匹配的匹配代价,网络流的代价和,或者直接构造为机器学习中的分类问题进行优化计算。在概率统计最大化的多目标跟踪方法中,检测和轨迹的关系通过概率模型进行形式化,例如基于贝叶斯推导的卡尔曼滤波和粒子滤波,基于构造马尔科夫图模型,通过样本构造学习模型参数,在跟踪过程中计算概率最大化的轨迹结果,而对马尔科夫图模型的一个直接的公式化方法就是构造能量函数,因此能量最小化也是一些多目标跟踪算法常用的方式。

在一些情况下,这两种方法的区分不是非常明确的。比如机器学习算中,也可以采用统计学习方法进行建模,而能量最小化过程的推导实际是一个确定性的步骤。

上述对于多目标跟踪算法的分类,对于帮助理解不同的跟踪算法具有重要作用,而真正决定算法性能的可能并不是这些跟踪算法框架,而是一些更加基础的内容,比如如何构造检测结果的表观模型才能反应目标的特征,采用什么样的特征才能使得同一个目标更像,不同目标差异较大。又比如,如何判断检测结果是不是非常准确,如果不准确的话,特征匹配该如何计算匹配相似度。

对于特征表示的研究,目前广泛采用深度学习的方法,基于深度学习的多目标跟踪算法我们后续介绍。下面我们对经典的多目标跟踪算法进行概要的介绍。

3. 经典视觉多目标跟踪算法介绍

3.1 多假设多目标跟踪算法

多假设跟踪算法(MHT)是非常经典的多目标跟踪算法,由Reid在对雷达信号的自动跟踪研究中提出,本质上是基于Kalman滤波跟踪算法在多目标跟踪问题中的扩展。

定义在k时刻之前的检测为Z k(在更广泛的环境下也称为观测,如雷达扫描得到的目标的位置坐标、速度),多假设跟踪的目标是基于已有轨迹对这种观测关联进行条件概率建模,把似然关联假设

6b676b87a3121b6e48297407c1ad1492.png

划分为当前关联假设

2665e131322de3ecd388353fdc2962de.png

和k-1时刻的假设集合

5f0e6e922663f371491df610585d78cc.png

。可以利用贝叶斯推理得到关于关联假设的后验概率公式:

3015893226255fc09277d554c58e1446.png

(3-1)

其中公式右侧第一项表示基于前期假设集合和当前假设的观察似然概率,即在历史关联的基础上,当关联

ac0f6973923bf43fa299010fc3e11707.png

成立时,表现出当前观测Z(k)的概率;第二项表示当前假设的似然概率,即在历史关联的基础上,当前关联假设的概率;第三项表示前期假设集合后验概率。c是贝叶斯公式中的分母,对于当前观测已知的条件,可以认为是一个常数。从上式中可以看出,总体的假设后验概率可以表示为此三项的乘积。而公式第三项表示k-1时的后验概率,因此,只考虑第一项和第二项就可以得到一个递推公式。

如何对第一项和第二项进行建模?MHT采用了二个概率模型:

  • 用均匀分布和高斯分布对关联对应的检测观察建模.
  • 用泊松分布对当前假设的似然概率建模

前者表示,当观测是来自一个轨迹T时,它符合T的高斯分布,否则观测是一个均匀分布的噪声。后者表示,在误检和新对象出现概率确定的情况下,出现当前关联的可能性可以通过泊松分布和二项分布的乘积表示。在以上假设下,关联假设的后验分布是历史累计概率密度的连乘,转化为对数形式,可以看出总体后验概率的对数是每一步观察似然和关联假设似然的求和。因此,选择最佳的关联假设,转化为观察似然和关联假设似然累计求和的最大化。在进行具体实现和优化的时侯,I.J.Cox等人提出了一种基于假设树的优化算法,如图4所示。

a8498cc71efff081c43dd3e1de14e426.png

图4: 左图为k-3时刻三个检测观察和两条轨迹的可能匹配。对于这种匹配关系,可以继续向前预测两帧,如图右。得到一种三层的假设树结构,对于假设树根枝干的剪枝,得到k-3时刻的最终关联结果。

对于k时刻的关联对数似然概率,可以认为是k时刻之前关联观察似然概率的对数求和,由于任何时刻都可能存在多种假设关联,因此到k时刻的假设构成了一种组合假设树的层次关系。例如图4左边表示的是2个轨迹和3个观测之间可能形成的关联假设,可能存在的假设有{观测23=>轨迹1,观测22=>轨迹2, 观测21=>新轨迹}或者{观测22=>轨迹1,观测21=>轨迹2, 观测23=>新轨迹},因此产生2个假设分支。图4右侧是从这2个关联假设出发的三层假设树关系,可以看出随着假设层数的增多,关联假设出现组合爆炸的可能。因此进行必要的剪枝减少假设空间的数目是必须的步骤。那么如何选择最佳的关联呢?I.J.Cox采用了2个步骤来实现。首先,限制假设树的层数为3层。其次,是对每个分支的叶节点概率对数进行求和,最大的分支进行保留,即选择边缘概率最大的那个分支假设作为最后选择的关联。可以把这种选择方法简单的表示为:

92b0089db5805ab0f10e43be66d9d48d.png

(3-2)

采用基于均匀分布、泊松分布以及高斯分布的模型,可以高效快速计算选择k-3时优化的假设关联。这种基于似然概率对数累加的方法虽然方便迅速,但是存在一个主要的限制,即假定观测关联符合高斯模型,并且在每一步选择关联假设之后,需要利用Kalman滤波更新轨迹状态。通过对MHT基本公式(3-1)的扩展,可以建立不同的概率模型描述这种多假设关联的全局概率,例如Kim等人在ICCV2015和ECCV2018通过归一化的最小均方差优化算法引入表观模型来扩展MHT算法,取得不错的多行人跟踪结果[2,3]。

3.2 基于检测可信度的粒子滤波算法

如果不限定检测观测为高斯分布,一种采用概率统计的多目标跟踪框架是基于检测可信度的粒子滤波算法[4]。

这个算法分为两个步骤:

  • 对每一帧的检测结果,利用贪心匹配算法与已有的对象轨迹进行关联。
  • 利用关联结果,计算每个对象的粒子群权重,作为粒子滤波框架中的观察似然概率。

整体的跟踪过程采用粒子滤波框架,如图5中所示。

045c36b5faa5dab3e69b19a315f99270.png

图5: 基于检测匹配的联合粒子滤波多目标跟踪算法流程对于每一帧的检测结果(图左)。可以计算与轨迹的匹配矩阵,本方法采用结合匹配结果设计粒子滤波算法(图中),计算跟踪结果(图右)。

下面我们详细说明这两步:

第一步:利用贪心匹配算法关联当前帧检测和已有的对象轨迹。匹配亲和度计算如下:

f8aacff9b38c9d19cf56e7c1f884eb0b.png

(3-3)

其中tr表示一个轨迹,d是某一个检测,他们的匹配亲和度计算包含三个部分:在线更新的分类学习模型Ctr(d),用来判断检测结果是不是属于轨迹tr; 轨迹的每个粒子与检测的匹配度,采用中心距离的高斯密度函数求和pN(d-p)表示;与检测尺寸大小相关的阈值函数g(tr,d),表示检测与轨迹尺度的符合程度, 而α是预设的一个超参数。

计算出匹配亲和度矩阵之后,可以采用二部图匹配的Hungarian算法计算匹配结果。不过作者采用了近似的贪心匹配算法,即首先找到亲和度最大的那个匹配,然后删除这个亲和度,寻找下一个匹配,依次类推。贪心匹配算法复杂度是线性,大部分情况下,也能得到最优匹配结果。

第二步:采用粒子滤波框架,计算每个跟踪对象的粒子权重,计算公式如下:

78580a097fed54ad6ba63d26da66f2a3.png

(3-4)

其中tr表示需要跟踪的对象轨迹,p是某个粒子。指示函数I(tr)表示第一步关联中,轨迹tr是不是关联到某个检测结果,当存在关联时,计算与关联的检测d*的高斯密度pN(p-d*);ctr(p)是对这个粒子的分类概率;dc(p)是粒子通过检测算法得到的检测可信度,po(tr)是一个加权函数,计算如下:

98e551219714988f0c2a33418b43c8c1.png

(3-5)

当轨迹tr有检测匹配时,po(tr)为1;否则,他的附近有轨迹对象匹配成功时,取邻域轨迹的最大匹配高斯密度;如果附近也没有轨迹对象成功匹配,则po(tr)为0。

结合检测可信度的粒子滤波算法对轨迹的初始化采用了感兴趣区域的简单启发式策略。即,进入图像区域边框时,初始化对象;当连续多帧没有关联到检测时终止跟踪。在一些典型数据集上,基于检测可信度的粒子滤波算法可以得到不错的结果,如下表:

4c557d534cf8d657324873288096dffe.png

表1: 基于检测可信度粒子滤波的跟踪结果,采用CLEAR MOT评测标准进行结果评估

3.3 基于最小代价流优化的多目标跟踪算法

上述两个算法是基于贝叶斯概率模型的在线多目标跟踪算法。与他们不同,采用最小代价流优化的多目标跟踪算法是基于确定性优化的离线多目标跟踪算法[6]。

定义某条轨迹为

17d4e9de4e26787d8c4b7318b31c3d8f.png

,则需要求解最优化的是轨迹集合为

c1e1ab7f55eba439d32d7ff3e44b5533.png

。表示所有的检测集合为

156985c19c9f23dcfda0bc3b8b39de62.png

。离线全局最优化多目标跟踪问题实际可以表示为已知检测集合,求轨迹集合,按照贝叶斯推理,可以有:

ef3e5e69757d315f76aef16f197b523f.png

(3-6)

考虑

024e6cf3cd78429920ce93fdf52480db.png

,按照每个轨迹对上式进行变换,并求对数得到:

d5855bad4d31312ec2e010fba37af26e.png

(3-7)

上式中,右侧第一项表示轨迹的存在概率对数,第二项表示为在轨迹存在的条件下,检测是真的概率,把每条轨迹展开为检测的链接表示,那么上式可以表示为:

b6f82bd50f2dc7fc4aec3091ed1ba9f9.png

(3-8)

这里新的变量为{fs,i , fi,t, fi ,fi,j},他们与轨迹集合

80f278358e941a28be302a385909c503.png

的对应关系是:

03cbedc2406fd4b0a527026e1b1d7d43.png

(3-9)

由于满足链接只返生在不同检测和同一条轨迹之间,并且轨迹之间互斥,因此满足关系:

a5560f059b3f3f9ddc1991c3e0b56883.png

(3-10)

仔细观察发现,这里所求解的实际上网络流优化问题中满足代价最小的多个流,如图6。

4d2a205931a6fd8c1f4ba6e1efaac02d.png

图6: 最小代价流描述的检测划分方法,以产生全局最优的多目标跟踪算法。图中表示三帧图像中,分别有2, 4, 3个检测结果时,所产生的网络最小代价流[6]。

这里还有两个问题,网络流中边的代价怎么计算以及轨迹的数目怎么确定。

第一个问题,边的代价根据跟踪中轨迹生成概率、终止概率、相似概率、误检率计算:

69e3e932c34c6a02702b61d8dfae1426.png

(3-11)

第二个问题,轨迹数目通过迭代比较的方法确定。注意到检测节点代价Ci的值是一个负数,所以轨迹对应的网络流代价也可能小于0。因此,通过遍历不同轨迹数目,可以确定一个全局代价最小的解。这种方式带来算法的低效率,后续很多工作做了相关优化[7, 8]。

3.4 基于马尔科夫决策的多目标跟踪算法

不同于之前基于概率模型的在线多目标跟踪算法,Xiang等人采用了马尔科夫决策过程来推导每个轨迹的生成,称为MDP跟踪算法[9]。这是一种基于机器学习的确定性推导在线目标跟踪算法。

作者把目标跟踪看作为状态转移的过程,如图7。转移的过程用马尔科夫决策过程(MDP)建模。一个马尔科夫决策过程包括下面四个元素:(S, A, T(.),R(.))。其中S表示状态集合,A表示动作集合,T表示状态转移集合,R表示奖励函数集合。一个决策是指根据状态s确定动作a, 即 π: S↦A。一个对象的跟踪过程包括如下决策过程:

  • 从Active状态转移到Tracked或者Inactive状态:即判断新出现的对象是否是真。
  • 从Tracked状态转移到Tracked或者Lost状态:即判断对象是否是持续跟踪或者暂时处于丢失状态。
  • 从Lost状态转移到Lost或者Tracked或者Inactive状态:即判断丢失对象是否重新被跟踪,被终止,或者继续处于丢失状态。
8c92c8495c7242d3fa6c5cfa5ac95051.png

图7: 基于马尔科夫决策过程的在线跟踪流程[9]

作者设计了三个奖励函数来对上述三种决策进行建模:

第一个奖励函数是:

d455a34de2d2f9f11ba9ab236ad3ac05.png

(3-12)

即判断新出现的对象是否为真,y(a)=1时表示转移到跟踪状态,反之转移到终止状态。这是一个二分类问题,采用2类SVM模型学习得到。这里用了5维特征向量:包括x-y坐标、宽、高和检测的分数。

第二个奖励函数是:

f4acc6feba222a7b5fd11a9c646a36a4.png

(3-13)

这个函数用来判断跟踪对象下一时刻状态是否是出于继续跟踪,还是处于丢失,即跟踪失败。这里作者用了5个历史模板,每个模板和当前图像块做光流匹配,emedFB表示光流中心偏差,Omean表示平均重合率。e0和o0是阈值。

第三个奖励函数是:

91ee11c00eb70ef3dfad88604820fea8.png

(3-14)

这个函数用来判断丢失对象是否重新跟踪,或者终止,或者保持丢失状态不变。这里当丢失状态连续保持超过Tlost(=50)时,则转向终止,其他情况下通过计算M个检测匹配,来判断是否存在最优的匹配使上式(3-14)奖励最大,并大于0。这里涉及两个问题如何设计特征以及如何学习参数。这里作者构造了12维与模板匹配相关的统计值。而参数的学习采用强化学习过程,主要思想是在犯错时候更新二类分类器值。

表2中是本算法和其他算法在MOT2015测试数据集中运行结果比较,相对其他经典在线跟踪算法,MDP算法具有一定的优势。

14ad36e7b1886885d7db181d0d9eb515.png

表2: 采用马尔科夫决策过程的多目标在线跟踪算法在MOT2015中的评测结果

3.5 基于局部流特征的近似在线多目标跟踪算法

上面介绍的基于马尔科夫决策的在线多目标跟踪是对于当前帧的图像和检测结果,进行即时的轨迹状态更新。在另一类在线跟踪方法中,跟踪状态的最终结果与当前帧有一个小的帧差,这种方法称为近似在线多目标跟踪算法,MHT算法实际就是一种近似在线多目标跟踪算法。这里介绍的NOMT跟踪算法,是采用能量函数最小化设计的近似在线跟踪,对比MHT算法,没有高斯分布的假设,因此应用范围更广泛一些。

NOMT算法的主要思想是,对于当前时刻t,往回看?帧,在t帧和t-?帧之间构造轨迹小段组(tracklets),利用这些轨迹小段组和之前的跟踪目标进行匹配关联,由于轨迹小段包含了比单个检测更加丰富的信息,因此这种关联比目标轨迹直接匹配检测集合更加可靠。同时,此时的匹配包含了?帧信息,因此如果t帧之前的匹配存在错误,在后续的关联中具有纠正。

860f67e2a2cce27a903f99e95f455d91.png

图8: 采用近似在线多目标跟踪NOMT算法的示意图[10]。对于t时刻的关联结果,允许在后续的关联中进行验证,对于错误的关联可以进行改正,从而增强整体跟踪的准确性。

错误的机会,基本的思想如图8中所示。

形式化的表示中,定义XA* t-1为t-?之前生成轨迹集合, A* t-1={ A1* t-1, A2* t-1, ...}。对于其中任意一个轨迹目标Am* t-1对应在t-?帧到t帧存在可能存在匹配的轨迹片段组Htm , 也称为目标假设,定义Htm ={Htm,1, Htm,2, Htm...}。其中每一个都是t-?帧到t帧生成的轨迹小段。注意对于每个集合Htm的第一个元素设定为空ϕ,以表示轨迹可能终止。最终的问题转化为一个随机场的求解问题,即对于每个轨迹,求一个最佳的假设,这个随机场的能量函数可以写为:

94903bd9e27cbb4f4a291b38a2476d04.png

(3-15)

其中x就是要求的假设对应的下标。找到使3-15式最小的x,就完成了t帧的推导。如图9所示是详细的过程。

569cf9aed154fa13663bfb25df37a9e9.png

图9: 采用条件随机场求解跟踪目标与轨迹小段匹配的示意图[10]。对于t-?帧到t时刻生成的轨迹小段T,生成与跟踪目标Am* t-1匹配的候选集合(b),由随机场推导得到优化的关联结果(c),并生成最终结果(d)。

对应于一般的马尔科夫随机场,公式3-15也分为两个部分,第一部分是每个节点自身的势函数,表示的是一个轨迹小段和跟踪目标匹配的代价,第二部分定义为随机场的边的势能函数,表示2个跟踪目标m,l匹配两个轨迹小段时的互斥性。

这里节点势能函数定义为:

48785b6e3190bcb3e4c7aef55e2f6748.png

(3-16)

这个公式包含三项,分别表示轨迹小段中每个检测与跟踪目标的匹配代价,轨迹小段内部每两个检测的匹配代价,以及轨迹小段和跟踪目标之间的表观距离。这里的匹配代价计算作者采用了基于局部光流的匹配划分计算方法,称为ALFD特征。

边的势能函数定义为:

d97598e9eca95c4dee1f45c3abc30c33.png

(3-17)

这里的函数d(.f)表示f时刻的检测,函数o表示重叠率,函数I是表示是否同一个检测。参数α,β分别是两种互斥性的权重,显然后者的权重要大很多,论文中作者分别设为(0.5, 100)。定义好能量函数,计算每两个检测之间的ALFD特征之后,这个函数就可以求解了。利用概率图模型中的联合树算法可以帮助求解公式3-15,找出最优的关联假设。

下表是NOMT算法在MOT2015中的跟踪评测结果:

e44be14a1e4f272b172e7ec8f5f69a4f.png

表 3: 基于近似在线多目标跟踪算法NOMT在MOT2015上的跟踪结果[10]。

相比与过去的传统的在线算法,NOMT算法的优点是借助了历史信息和时间片段中的轨迹段信息,因此性能相对较好,但是必须明确的是NOMT具有小的时间延迟(?=10),但是在实际应用中,这个延迟几乎是可以忽略的。

4. 视觉多目标跟踪算法在线资源

以上我们讨论了一些非常经典的多目标跟踪算法,这一节我们列举一些开放的多目标跟踪算法的数据集和资源。相对于单目标跟踪而言,多目标跟踪涉及的问题更多,其数据的标定和算法评测也更加复杂,因此开放的数据和代码要相对少很多[11]。表4列出了多目标跟踪算法中常见的公共评测数据集和他们的下载地址。

7b6e75fd355237a747d126059e30e93e.png

www.cvg.rdg.ac.uk/PETS2009/a.html

2fd018e9eeac8468220167337395fe87.png

www.pets2007.net/

5f0bf96013baea4b0f030deb7133276b.png

http://groups.inf.ed.ac.uk/vision/ CAVIAR/CAVIARDATA1/

1a5229b842d08f1f17f7e6b2d0eb6d03.png

www-nlpir.nist.gov/projects/tv2008/

d4bff722ca795647234cf4deecf807b2.png

www.d2.mpi-inf.mpg.de/datasets

470ce49c25cfccb94670e5bde9fba463.png

www.vision.caltech.edu/Image_Datasets/ CaltechPedestrians/

79add2eeb598106e489c31d4669f453f.png

www.eecs.qmul.ac.uk/~andrea/avss2007_d.html

c0d2a4f2d73e3a2b9318e50a6710179b.png

www.vision.ee.ethz.ch/~aess/dataset/

c516e449ed9aa3d18e29effd4fa7180d.png

www.vision.ee.ethz.ch/datasets/

0e2f0291b53579361e48ea2b69f3ec98.png

www.robots.ox.ac.uk/ActiveVision/Research/Projects/2009bbenfold_headpose/project.html#datasets

00e8ddd9040e501715feca903eabd834.png

http://www.cvlibs.net/datasets/kitti/eval_tracking.php

5a9b9e39a4f4845b6ab4b110b7044e1f.png

https://motchallenge.net/data/2D_MOT_2015/

24764559dd4205f651512d9e44b0efcf.png

https://motchallenge.net/data/MOT16/

fe7eee81ff070eded739495ee524da34.png

https://motchallenge.net/data/MOT17/

表 4: 多目标跟踪算法中常用的公共评测数据集

其中KITTI是自动驾驶平台上车辆、行人等不同目标类型的数据集,包含了跟踪、检测、分割等多种任务。MOT2015,MOT2016 及 MOT2017 包含了过去常用的一些视频序列及作者新增加的一些高清视频,是目前主要的多目标跟踪评测数据集。

表 5 中列出了近年来主要国际会议和期刊论文中开放源码的多目标跟踪算法。需要说明的是,表 4 和表 5 中只列出了我们所搜集到的资源和代码,未来一定有更多的资源开放出来。另外其他未引用的常用资源也请读者补充。

5. 视觉多目标跟踪小结

相比单目标跟踪问题,多目标跟踪面临更多的子问题,主要的区别在于跟踪对象不再确定不变,因此必须考虑对象之间的交互,新对象的进入和离开视场对象的跟踪终止。由于解决这些问题的角度不同,多目标跟踪算法的形式也是各种各样。尽管算法思路相差较大,但是主要的算法框架和其中的关键部分基本类似。在线多目标跟踪中,基本的算法流程仍然是基于状态预测更新的框架;而离线多目标跟踪中,基于图模型的构造和求解是主要的框架。两种类型中,如何有效的设计和学习检测之间的匹配亲和度,或者轨迹与观测的一致性是非常关键的步骤。深度学习是解决这个问题的非常有效的工具,在最新的多目标跟踪算法中已经表现出明显的优势,深度学习的进一步应用是多目标跟踪领域发展的必然趋势,在下一篇文章中,我们将对此进行介绍。

Authors: Choi and Savarese

Publications: ECCV2010

Web Link:

https://www.eecs.umich.edu/vision/mttproject.html

Authors:Milan et al.

Publications: TPAMI2014

Web Link:

http://research.milanton.de/contracking/

Authors: Andriyenko et al.

Publications: CVPR2012

Web Link:

http://research.milanton.de/dctracking/

Authors: Milan et al.

Publications: CVPR2013

Web Link:

https://bitbucket.org/amilan/dctracking

Authors: Zamir et al.

Publications: ECCV2012

Web Link:

http://crcv.ucf.edu/projects/GMCP-Tracker/

Authors: Berclaz et al.

Publications: TPAMI2011

Web Link:

http://cvlab.epfl.ch/software/ksp

Authors: Zhang et al.

Publications: TPAMI2014

Web Link:

http://visionlab.tudelft.nl/spot

Authors: Pirsiavash et al.

Publications: CVPR2011

Web Link:

http://www.ics.uci.edu/~dramanan/

Authors: Rodriguez et al.

Publications: ICCV2009

Web Link:

http://www.mikelrodriguez.com/crowd-tracking-matlab-application

Authors: Possegger et al.

Publications: CVPR2014

Web Link:

https://www.tugraz.at/institute/icg/research/team-bischof/lrs/downloads/occgeo/

Authors: Yoon et al.

Publications: CVPR2016

Web Link:

https://cvl.gist.ac.kr/project/scea.html

Authors: Yu et al.

Publications: CVPR2016

Web Link:

https://sites.google.com/view/shoou-i-yu/home

Authors: Chari et al.

Publications: CVPR2015

Web Link:

https://github.com/viseshchari/TrackingNetFlow

Authors: Dehghan et al.

Publications: CVPR2015

Web Link:

https://cvl.gist.ac.kr/project/rmot.html

Authors: Zhang,et al.

Publications: ECCV2016

Web Link:

http://shunzhang.me.pn/papers/eccv2016/

Authors: Xiang et al.

Publications: ICCV2015

Web Link:

http://cvgl.stanford.edu/projects/MDP_tracking/

Authors: Lenz et al.

Publications: ICCV2015

Web Link:

http://www.cs.toronto.edu/boundTracking/

Authors: Solera et al.

Publications: ICCV2015

Web Link:

http://www.francescosolera.com/images/github

表 5: 近年来开放代码的多目标跟踪算法及代码地址

参考文献

[1] D. Reid. An algorithm for tracking multiple targets. IEEE Transactions on Automatic Control, 1979.

[2] C. Kim, F. Li, A. Ciptadi, and J. Rehg. Multiple Hypothesis Tracking Revisited. In ICCV, 2015.

[3] C. Kim, F. Li, and J. M. Rehg, Multi-object Tracking with Neural Gating Using Bilinear LSTM, in ECCV 2018.

[4] M. D. Breitenstein, F. Reichlin, B. Leibe, E. Koller-Meier, and L. Van Gool. Robust tracking-by-detection using a detector confidence particle filter. In ICCV, 2009.

[5] M. D. Breitenstein, F. Reichlin, B. Leibe, E. K. Meier, and L. V. Gool, Online Multi-Person Tracking-by-Detection from a Single, Uncalibrated Camera, TPAMI, 2010.

[6] L. Zhang, Y. Li, and R. Nevatia, Global Data Association for Multi-Object Tracking Using Network Flows, in CVPR, 2008.

[7] H. Pirsiavash, D. Ramanan, and C. F. Charless. Globally-optimal greedy algorithms for tracking a variable number of objects. In CVPR, 2011.

[8] P. Lenz, A. Geiger, and R. Urtasun. FollowMe: Efficient Online Min-Cost Flow Tracking with Bounded Memory and Computation. In ICCV, 2015.

[9] Y. Xiang, A. Alahi, S. Savarese. Learning to Track: Online Multi-Object Tracking by Decision Making. In ICCV, 2015.

[10] W. Choi. Near-Online Multi-target Tracking with Aggregated Local Flow Descriptor. In ICCV, 2015.

[11] W. Luo, J. Xing, A. Milan, X. Zhang, W. Liu, X. Zhao, and T. Kim,Multiple Object Tracking: A Literature Review. arXiv:1409.7618 (2014).

原文发布于微信公众号 - SigAI(SIGAICN)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
## Tracking with Kernelized Correlation Filters Code author : Tomas Vojir ________________ This is a C++ reimplementation of algorithm presented in "High-Speed Tracking with Kernelized Correlation Filters" paper. For more info and implementation in other languages visit the [autor's webpage!](http://home.isr.uc.pt/~henriques/circulant/). It is extended by a scale estimation (use several *7* different scales steps) and by a RGB (channels) and Color Names [2] features. Data for Color Names features were obtained from [SAMF tracker](https://github.com/ihpdep/samf). It is free for research use. If you find it useful or use it in your research, please acknowledge my git repository and cite the original paper [1]. The code depends on OpenCV 2.4+ library and is build via cmake toolchain. _________________ Quick start guide for linux: open terminal in the directory with the code $ mkdir build; cd build; cmake .. ; make This code compiles into binary **kcf_vot** ./kcf_vot - using VOT 2014 methodology (http://www.votchallenge.net/) - INPUT : expecting two files, images.txt (list of sequence images with absolute path) and region.txt with initial bounding box in the first frame in format "top_left_x, top_left_y, width, height" or four corner points listed clockwise starting from bottom left corner. - OUTPUT : output.txt containing the bounding boxes in the format "top_left_x, top_left_y, width, height" ./kcf_trax - using VOT 2014+ trax protocol (http://www.votchallenge.net/) - require [trax](https://github.com/votchallenge/trax) library to be compiled with opencv support and installed. See trax instruction for compiling and installing. ___________ Performance | | **VOT2016 - baseline EAO** | **VOT2016 - unsupervised EAO** | [**TV77**](http://cmp.felk.cvut.cz/~vojirtom/dataset/index.html) Avg. Recall | |:---------------|:--------------:|:------------------:|:----------------:| | kcf |0.1530 | 0.3859 | 51% | | skcf |0.1661 | 0.4155 | 56% | | skcf-cn |0.178 | 0.4136 | 58% | | kcf-master |**0.1994** | **0.4376** | **63%** | __________ References [1] João F. Henriques, Rui Caseiro, Pedro Martins, Jorge Batista, “High-Speed Tracking with Kernelized Correlation Filters“, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015 [2] J. van de Weijer, C. Schmid, J. J. Verbeek, and D. Larlus. "Learning color names for real-world applications." TIP, 18(7):1512–1524, 2009. _____________________________________ Copyright (c) 2014, Tomáš Vojíř Permission to use, copy, modify, and distribute this software for research purposes is hereby granted, provided that the above copyright notice and this permission notice appear in all copies. THE SOFTWARE IS PROVIDED "AS IS" AND THE AUTHOR DISCLAIMS ALL WARRANTIES WITH REGARD TO THIS SOFTWARE INCLUDING ALL IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS. IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY SPECIAL, DIRECT, INDIRECT, OR CONSEQUENTIAL DAMAGES OR ANY DAMAGES WHATSOEVER RESULTING FROM LOSS OF USE, DATA OR PROFITS, WHETHER IN AN ACTION OF CONTRACT, NEGLIGENCE OR OTHER TORTIOUS ACTION, ARISING OUT OF OR IN CONNECTION WITH THE USE OR PERFORMANCE OF THIS SOFTWARE. __________________ Additional Library NOTE: The following files are part of Piotr's Toolbox, and were modified for usage with c++ src/piotr_fhog/gradientMex.cpp src/piotr_fhog/sse.hpp src/piotr_fhog/wrappers.hpp You are encouraged to get the [full version of this library here.](http://vision.ucsd.edu/~pdollar/toolbox/doc/index.html) ______________________________________________________________________________ Copyright (c) 2012, Piotr Dollar All rights reserved. Redistribution and use in source and binary forms, with or without modification, are permitted provided that the following conditions are met: 1. Redistributions of source code must retain the above copyright notice, this list of conditions and the following disclaimer. 2. Redistributions in binary form must reproduce the above copyright notice, this list of conditions and the following disclaimer in the documentation and/or other materials provided with the distribution. THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. The views and conclusions contained in the software and documentation are those of the authors and should not be interpreted as representing official policies, either expressed or implied, of the FreeBSD Project.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值