Object Track(十二):经典论文TrackFormer速读

一般base Transformer的工作所使用的的都是Query-Key机制,区别在于在哪部分启动Query-Key或者何时启动Query-Key

这篇TrackFormer与昨天的TransTrack对比着看,会很有意思

架构图

图1:TrackFormer通过与Transformer的注意力执行联合目标检测和跟踪。Object和自回归轨迹查询关于响应包括轨迹初始化、标识和时空轨迹遮挡。 

图2:TrackForm将多目标跟踪重新定义为set prediction问题,执行joint detection and tracking-by-attention。该体系结构由一个用于提取图像特征的CNN、一个用于图像特征编码的Transformer编码器和一个Transformer解码器组成,Transformer解码器利用self和encoder-decoder注意力来产生带有边界框和类别信息的输出嵌入。在frame t=0时,解码器将N object个对象查询(白色)转换为输出嵌入,用来初始化新的自回归轨迹查询(track query),或者预测背景类别(交叉, crossed)。在后续帧上,解码器处理N object+N track查询的联合集合以跟踪或移除(蓝色)现有轨道以及初始化新轨道(紫色)。 

这里需要注意的是,不算head层,其实Transformer结构会将输入进行频繁的自注意力,但是输出获得内容信息的embedding维度是不变的,这里可以理解为一个黑盒,因此这里初始化的track query其实和后面每帧为了新目标检测使用的object query是同维的。

N object+N track的共同查询可以理解为:object query用于空间上查询,track query带有时序信息进行查询。当然这只是一种“企图优雅”的解释,事实上是一个黑盒模型。

这是TrackFormer的结构图,可与TransTrack的结构图对比着来看。

主要区别在于TrackFormer在两帧这件检测联合的信息是Track queries,它由上一帧的Object queries生成。

参考:TrackFormer解读_周先森爱吃素的博客-CSDN博客_trackformer

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小白 AI 日记

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值