业界首个实时多目标跟踪系统开源

点击我爱计算机视觉标星,更快获取CVML新技术


相对业界研究比较多的单目标跟踪,多目标跟踪(Multi-Object Tracking,MOT)系统在实际项目中应用场景更多。

长期以来谈到此领域,大家都会推荐DeepSort算法(Simple Online and Realtime Tracking with a Deep Association Metric,2017),不过今天要刷新一下知识库了。

今天一篇多目标跟踪的论文Towards Real-Time Multi-Object Tracking,引起了不少人的关注,速度更快、精度更高、代码也已经开源了,非常值得参考。作者称,该算法是第一个实时的多目标跟踪算法。

该文作者信息:

来自清华大学和澳大利亚国立大学。

多目标跟踪往往采用tracking-by-detection 流程,分为用于目标定位的检测模型和目标关联的表观嵌入模型,长久以来,这两大模块是分开的。

作者的想法就是在这两大模块共享特征。

请看下图:

(a)为经典的检测与嵌入模块分离的模型;

(b)为两阶段模型,嵌入部分复用检测的特征;

(c)为本文提出的检测和嵌入联合的模型。

该文使用的主要方法是,将表观嵌入模型集成到一个单阶段目标检测模型中,如下图:



使其在进行目标检测预测的时候,预测head同时进行表观嵌入,另外,因为预测head是一个多任务的模型,对各个任务Loss函数进行自适应加权。

上图中(a)为网络架构,(b)为预测head的详细展示,包含分类、回归、嵌入的三个任务,和各Loss加权示意图。

作者在MOT-16多目标跟踪数据集上评估了算法精度和速度,结果如下:

该文提出的算法,MOTA接近state-of-the-art,比DeepSort精度高,速度快3-4倍。

以上算法评估作者是在Nvidia Titan xp GPU上运行的。

论文地址:

https://arxiv.org/pdf/1909.12605v1.pdf

开源代码:

https://github.com/Zhongdao/Towards-Realtime-MOT

最近网络不太好,在公众号对话界回复“实时多目标”,即可收到论文下载地址。


目标跟踪交流群

关注最新最前沿的单目标跟踪、多目标跟踪技术,扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)

(请务必注明:跟踪)

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值