VOT 2017挑战赛——目标追踪相关分享

视觉跟踪领域国际顶级赛事 Visual-Object-Tracking Challenge (VOT) 2017年结果出炉,结合传统滤波及深度学习的方案取得最佳成绩。本文是第二名北京邮电大学代表团队的技术分享。他们基于滤波的框架,抛弃传统特征,只使用CNN特征,减少了特征冗余,缓解了模型过拟合,使追踪器在速度和精度上都有不小的提高。代码分享链接:https://github.com/he010103/CFWCR.git

随着深度学习在计算机视觉方面大放异彩,近几年物体追踪也得到了飞速的发展。物体追踪解决的问题是在一段时间内对于同一个物体在复杂的背景下(如遮挡,光照,物体旋转等),进行持续高速的跟踪。因此,物体追踪是监控,安防,自动驾驶,无人机,智能家居等应用中必须解决的关键课题。

作为视觉跟踪领域的最高峰,Visual-Object-Tracking Challenge (VOT) 是国际目标跟踪领域最权威的测评平台,由伯明翰大学、卢布尔雅那大学、布拉格捷克技术大学、奥地利科技学院联合创办,旨在评测在复杂场景下单目标短时跟踪的算法性能。由于每年的评测序列都会更新,且标注的精确度一年一年提高,VOT竞赛也被视为视觉跟踪领域最难的竞赛,远远超过了其他数据集。因此,每年最好的追踪算法都会在上面一展拳脚,在激烈的比拼中擦出灵感的火花。

今年的比赛 VOT 2017,作为 ICCV 2017的一个workshop,吸引了来自全世界的38个队伍参加(CMU,中科院,法国科学院,香港理工,华中科技大学,国防科大,美国海军研究院,牛津大学,中国科技大学,浙江大学等),提交了38个新的算法参加了比赛,加上组委会自行提交的13个算法,总共对比分析了51个跟踪器在VOT2017 数据集上的表现。

在公开的38个队伍中,大连理工大学的卢湖川教授队伍夺得第一名。由北京邮电大学董远教授指导,北京飞搜科技&北京邮电大学代表队何智群、樊应若、庄骏飞、白洪亮提交的结果(CFWCR)获得VOT 2017竞赛公开的60个评测序列中第二名。

VOT 竞赛,检验当前单目标追踪最高标准

VOT 2017与VOT 2016相比,VOT 2016中某些序列已经被多数tracker准确跟踪,所以在VOT 2017中,将VOT 2016的10个评测效果差图像序列替换如图1,并且保证总体的序列属性分布不变。与此同时,VOT2017相对于VOT2016对所有序列的还对所有序列的ground truth进行了重新标定,精确到像素级别,然后重新拟合矩形框。
在这里插入图片描述
VOT2017使用EAO(Expected Average Overlap)、Accuracy、Robustness三个主要指标对跟踪结果进行评估,

(1)、平均重叠期望(EAO)是对每个跟踪器在一个短时图像序列上的非重置重叠的期望值,是VOT评估跟踪算法精度的最重要指标。
(2)、准确率(Accuracy)
(3)、鲁棒性(Robustness)
(4)(重叠率 ):是指跟踪器在单个测试序列下的平均重叠率(两矩形框的相交部分面积除以两矩形框的相并部分的面积)。
(5)(失败率):是指单个测试序列下的跟踪器失败次数,当重叠率为0时即可判定为失败。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值