CVPR2018跟踪算法STRCF原理及代码解析

文章和代码下载地址:

 

STRCF: Feng Li, Cheng Tian, Wangmeng Zuo, Lei Zhang, Ming-Hsuan Yang. "Learning Spatial-Temporal Regularized Correlation Filters for Visual Tracking." CVPR (2018). [paper] [github]

一、创新点

1、加入了时间正则项,防止模型的腐败

2、使用ADMM迭代求解,获得实时性

二、原理

1、revisit SRDCF

SRDCF提出求解滤波器f的公式如下:

\alpha是样本权重,一般都是全部设置为1,可以不用管。\ast表示卷积,w是一个空间权值函数,参照SRDCF,是用来解决边界效应的。SRDCF使用Gauss-Seidel迭代函数来求解滤波器f,速度约4FPS,实时性不高。

2、STRCF

对比着来看,STRCF就是比SRDCF多了最后一项。f_{t-1}表示前一帧学习到滤波器,\mu是时间正则因子。

最小化这个公式道理很简单,就是保证求得的f与历史的滤波器尽可能地相似,防止模型的腐败,对抗遮挡也能起到不错的作用。个人认为加入时间正则项比通过固定学习率来更新模型有效一些,因为作者把这种更新约束直接加到了滤波器的求解当中,而不是独立的通过学习率来更新。

3、ADMM求解

引入了辅助变量g,转化为两个子问题,通过ADMM迭代求解。标准的ADMM解法,过程就不赘述了,可以参考:相关滤波跟踪算法中ADMM的使用_博博有个大大大的Dream-CSDN博客_admm算法

  • 3
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
CVPR2018首次引入了一个名为ClipQ(Clip Quality)的评价指标,用于衡量图像检索的质量。传统的图像检索任务通常使用精确率(Precision)和召回率(Recall)作为评估指标,但这两个指标无法完全反映出图像检索结果的质量。 ClipQ主要关注图像检索的相关性和质量。相关性衡量了检索结果与查询的相关程度,质量则表示结果图像与查询图像的视觉质量。传统的评价指标没有考虑到结果图像的质量因素,因此引入ClipQ指标,它综合考虑了图像的相关性和质量,能够更加客观地评估图像检索任务的效果。 ClipQ的计算方法主要依赖于两个因素:应答质量和应答分布。应答质量是通过计算两个图像之间的相似度来衡量的,相似度越高,应答质量越好。应答分布则是通过衡量相似图像在结果集合中的分布情况来计算的,分布越均匀表示应答品质越好。 通过结合应答质量和应答分布,ClipQ可以量化图像检索结果的质量。它能够在保证结果相关性的同时,进一步提高结果图像的质量,从而使得图像检索结果更加准确和精细。 总之,CVPR2018引入的ClipQ评价指标为图像检索任务提供了一种全新的评估方式。它综合考虑了图像的相关性和质量两个因素,可以更加客观地评估图像检索结果的好坏。ClipQ的引入将有助于推动图像检索领域的发展,提高图像检索任务的效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值