大佬笔记:
https://blog.csdn.net/qq_34919792/article/details/89893433
摘要
近年来,基于区分相关滤波器(DCF)的方法已大大提高了跟踪的最新水平。 然而,在追求不断提高的跟踪性能时,它们的特征速度和实时能力已逐渐消失。 此外,具有大量可训练参数的日益复杂的模型引入了严重过度拟合的风险。 在这项工作中,我们解决了计算复杂性和过拟合问题背后的关键原因,目的是同时提高速度和性能。
我们重新审视DCF的核心公式,并引入:
(i)一个分解卷积算子, 它大大减少了模型中的参数数量;
(ii)训练样本分布的紧凑生成模型,该模型显着降低了内存和时间的复杂性,同时提供了更好的样本多样性;
(iii)具有改进的鲁棒性和降低的复杂性的保守模型更新策略。
我们在四个基准上执行了全面的实验:VOT2016,UAV123,OTB-2015和TempleColor。 当使用昂贵的深层功能时,与VOT2016挑战中排名靠前的方法[12]相比,我们的跟踪器可提供20倍的加速,并在“预期平均重叠”方面实现13.0%的相对增益。 此外,我们的快速变体使用手工制作的功能,在单个CPU上以60 Hz的频率运行,而在OTB-2015上获得65.0%的AUC。
引言
通用视觉跟踪是计算机视觉中的基本问题之一。 仅在初始状态下,估计目标在图像