一. 相关滤波算法总结
作者首先分析了 影响相关滤波算法效率 和 导致过拟合 的几个原因:
1)Model Size (模型大小)
包括两个方面:
- 模型层数,对应多分辨率 Sample,比如多层 CNN
- 特征维度,对应庞大的 HOG or CNN特征图
这里的效率影响是显而易见的,层数或特征越多,表现力越丰富,计算量也相应的线性增加(如C-COT需要在线学习800,000个参数)。
另外,也是作者一直Focus的问题,复杂模型带来的Over-Fitting问题,导致准确度下降。
2)Training Set Size(训练集大小)
训练集 是指所用到的训练数据,只用到上一帧的数据进行计算,效率就比较高;如果要用到之前若干帧的数据进行训练(比如加权平均),效率就会低。
保留训练集的优点在于,仅仅通过 online learning 会导致新学到的特征出错(比如遮挡),不足以表达正确的对象。
PS:DSST 仅用上一帧Sample训练,但是是通过和之前模型累加,保留了前面若干帧的信息,在兼顾 训练集 的基础上确保了效率。
3)Model Update(模型更新)
理想情况下,我们希望每一帧都进行模型更新,实时特征更新能够保证准确性,但同样会带来效率负担,探讨间隔帧模式下的模型更新策略是提高效率的一个思路。
二. ECO 方法引入
针对相关滤波算法存在的上述问题,作者提出了 ECO 方法。
论文下载:Efficient Con