![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
目标跟踪
文章平均质量分 70
rrr2
这个作者很懒,什么都没留下…
展开
-
【目标跟踪】|Mixformer
以往跟踪框架存在的问题:(1)需要多个组件构成;(2)CNN-based方法缺乏全局建模能力;(3)Transformer-based方法仍依赖CNN提取特征,并在高层特征上进行注意力建模。为了克服上述问题,作者把特征提取和信息基础进行统一。首先,使特征提取更具体到跟踪目标,提取更多目标判别性特征。其次,将目标信息更广泛地集成到搜索区域中,从而更好的捕获它们之间的相关性。最后,获得了一个更加紧凑和优雅的跟踪框架,无需显式的集成模块。提出MAM(Mixed Attention Module)同时进行进行特征提原创 2022-07-10 22:00:47 · 797 阅读 · 0 评论 -
【目标跟踪】|OSTrack
ECCV 2022 paperJoint Feature Learning and Relation Modeling for Tracking: A One-Stream Framework之前的跟踪框架都是将特征提取和特征融合分为两步来做的,先分别提取Template和Search的特征,然后在两者之间进行相关,得到的特征用于计算最终的跟踪结果(Two Stream, Two Stage)。这样做存在以下两个缺点:1.特征提取阶段template和search间没有交互,提取到的特征是目标无关的,判别原创 2022-07-10 21:55:30 · 6823 阅读 · 2 评论 -
【目标跟踪】|FEAR轻量化跟踪框架
将开源开发了一个单参数双模板模块,该模块允许在不增加模型复杂度的情况下动态学习对象外观的变化,缓解了最近提出的在线学习模块的内存瓶颈。该模块预测目标接近搜索图像中心的可能性,从而允许选择模板图像更新的候选对象。以可学习的方式将在线选择的动态模板图像特征图与原始静态模板图像的特征图插值。这允许模型在推理过程中捕捉对象外观的变化。由特征提取网络、像素级融合块和用于边界盒回归和分类的任务特定子网络组成。给定静态模板图像、搜索图像裁剪和动态模板图像Id,特征提取网络在这些输入上生成特征映射。然后将模板特征表示作为原创 2022-07-10 17:01:29 · 1534 阅读 · 2 评论 -
【目标跟踪】|Exemplar Transformers
transformer 中 self-attention 计算如公式:Q,K 的序列长度均为图像尺寸,公式 2 计算复杂度为图像尺寸的平方,这样带来较大计算负担。作者认为,对所有特征之间的关联在机器翻译中是必要的,但是在视觉任务中是不必要的。因为机器翻译中每个特征都代表一个特定的单词或标记,而视觉任务中相邻的空间通常表示相同的物体。因此在视觉任务中,可以减少特征向量的数量,构建一个更粗略更具描述性的视觉表达,从而显著降低计算复杂度。作者首先提出了两个假设:一个小的 exemplar value 集合可以在原创 2022-07-10 10:15:33 · 524 阅读 · 0 评论 -
【目标跟踪】|UpdateNet
Learning the Model Update for Siamese Trackers文章标题:《Learning the Model Update for Siamese Trackers》文章地址:[1] arXiv,[2] ICCV2019 openaccessgithub地址:https://github.com/zhanglichao/updatenet单目标跟踪方法主要有两种范式:一种是用 Siamese 深度神经网络,一种是 tracking-by-detection。Siamese原创 2022-07-10 09:58:11 · 537 阅读 · 0 评论 -
【目标跟踪】|轻量化 CVPR 2021-LightTrack
LightTrack 使用神经架构搜索(NAS)来设计更轻量级和高效的目标追踪器。实验表明,LightTrack 与手工设计的 SOTA 跟踪器(如 SiamRPN++ 和 Ocean)相比,可以实现更优越的性能,而需要的计算量和参数要少得多。此外,当部署在资源受限的移动芯片上时,也能以更快的速度运行。难以实际部署轻量化方法LightTrack 采用 one-shot NAS 的方法搜索结构,流程如图 2 所示。整个过程训练与搜索是解耦的,首先训练超网(随机采样路径进行训练),然后用进化算法从超网中寻找原创 2022-07-10 08:59:47 · 2089 阅读 · 1 评论 -
【目标跟踪】|相关滤波和孪生网络目标跟踪综述(Martin 团队)
Visual Object Tracking with Discriminative Filters and Siamese Networks: A Survey and Outlook本文选取了 90 多个 DCF 和 Siamese 跟踪器进行系统和全面的回顾。首先,介绍了 DCF 和 Siamese 跟踪核心公式的背景理论。然后,区分和全面回顾了这两种跟踪范式中共享的和各自特定的挑战。此外,深入分析了 DCF 和 Siamese 跟踪器在 9 个 benchmark 上的性能,涵盖了视觉跟踪的不同转载 2022-07-09 23:05:31 · 2512 阅读 · 1 评论 -
【目标跟踪】|综述 Deep Learning for Visual Tracking: A Comprehensive Survey
视觉追踪方法可以大致分为计算机视觉深度学习革命前和革命后两大类。第一类的视觉追踪调查论文主要回顾了基于经典物体和运动表征的传统方法,然后系统地、实验地或两者兼之地考察它们的优缺点。考虑到深度学习视觉追踪器的重大进展,关于这些方法的回顾显然已经过时。相反地,第二类的综述则为深度视觉追踪器。与以往调查的差异:尽管目前已有综述论文,但本文仅着重于发表在主要图像处理和计算机视觉会议和期刊上的129种最先进的基于深度学习的视觉跟踪方法。这些方法包括:HCFT [59], DeepSRDCF [60], FCNT [原创 2022-07-08 11:16:58 · 658 阅读 · 0 评论 -
【目标跟踪】|PrDiMP Probabilistic Regression for Visual Tracking
这篇论文是Martin Danelljan CVPR2020的最新一个工作,这个系列中几篇论文都是一种架构,即将整个跟踪任务分为位置预测和bbox回归两个问题,模型架构采用的是一种类似Siamese架构。这篇论文主要解决的是位置回归的问题,bbox的回归还是直接使用的跟atom\dimp中一样的Iou-net的head。在atom中位置预测被定义为一个二分类问题,模型学习区分目标和背景两个类别,从而定位目标的位置。在Dimp中,作者引入元学习,将第一帧的信息融入到后面帧中,即使用第一帧的信息来为后面帧的原创 2022-07-08 09:15:44 · 829 阅读 · 0 评论 -
【目标跟踪】|DiMP: Learning Discriminative Model Prediction for Tracking
论文:DIMP: Learning Discriminative Model Prediction for Tracking代码:https://github.com/visionml/pytracking将目标区域送入特征提取器得到一个比较好的特征表示。 Siamese tracking 算法只用到了目标区域,将在目标区域内提取的特征,直接在测试帧图像的特征中进行相关操作,这种方法简单,速度快,在简单场景下效果挺好,但鲁棒性差,无法处理复杂场景(相似物体问题)。没有在线分类器为解决siamese网络的不原创 2022-07-07 22:04:44 · 547 阅读 · 0 评论 -
【目标跟踪】|atom
文章标题:《ATOM: Accurate Tracking by Overlap Maximization》文章地址:https://arxiv.org/pdf/1811.07628.pdfgithub地址:https://github.com/visionml/pytrackingCVPR2019 oral人们把专注于开发强大的分类器,但是严重忽略了准确的目标状态估计(target state estimation)(也就是包围框的回归问题)。实际中,许多分类器采用简单的多尺度搜索方法(例如 Sia原创 2022-07-07 21:05:05 · 719 阅读 · 0 评论 -
【目标跟踪】|SiamFC
论文:Fully-Convolutional Siamese Networks for Object Tracking代码:https://github.com/huanglianghua/siamfc-pytorch我们训练了一个孪生网络以在更大的搜索图像中定位示例图像。 进一步的贡献是相对于搜索图像完全卷积的新颖孪生体系结构:通过计算其两个输入的互相关性的双线性层实现了密集而有效的滑动窗口评估。Z模板,x搜索区域,ϕ变换函数 特征映射操作,g是简单距离或相似性度量*代表卷积操作,得到一个17^1原创 2022-07-02 10:50:15 · 243 阅读 · 0 评论 -
【目标跟踪】|数据集汇总
OTB在它的第一个[9]和第二个[12]版本中分别收集了51个和100个移动对象,而ALOV++[21]提供了一个更大的超过300个视频的池。VOT[4]、[5]、[8]是自2013年以来每年与ICCV和ECCV研讨会一起举办的年度视觉对象跟踪挑战赛。之后还提出了其他几个旨在解决具体问题的数据集。它们包括大规模人员和刚性目标跟踪数据集NUS_PRO[17]、长期空中跟踪数据集UAV123/UAV20L[15]、彩色跟踪数据集TColor-128[16]、长期跟踪数据集OxUvA[13]、热跟踪数据集PTB-原创 2022-07-02 09:35:41 · 4549 阅读 · 2 评论 -
【目标跟踪】|单目标跟踪指标
VOT认为,数据集只有规模大是完全不行的,一个可靠的数据集应该测试出tracker在不同条件下的表现VOT提出,应该对每一个序列都标注出该序列的视觉属性(visual attributes),以对应上述的不同条件,VOT2013共提出了六种视觉属性:相机移动(camera motion,即抖动模糊)光照变化(illumination change)目标尺寸变化(object size change)目标动作变化(object motion change,和相机抖动表现形式类似,都是模糊)未退化(no原创 2022-07-01 19:54:10 · 2654 阅读 · 0 评论 -
【目标跟踪】|STARK
本文使用transformer集成时间上下文信息通过更新输入的动态模板(文中设置200帧),获得时间上下文信息,再利用transformer进行处理transformer 本身对空间上下文具有更好的建模能力新架构包含三个关键组件:编码器、解码器和预测头。编码器接受初始目标对象、当前图像和动态更新模板的输入。输入是由一个搜索区域和两个模板组成的三元组。它们来自主干的特征首先被展平并连接,然后发送到编码器。编码器中的自注意力模块通过其特征依赖性学习输入之间的关系。由于模板图像在整个视频序列中更新,编码器可原创 2022-07-01 13:20:56 · 3836 阅读 · 1 评论 -
【目标跟踪】|模板更新 时间上下文信息(UpdateNet)《Learning the Model Update for Siamese Trackers》
文章标题:《Learning the Model Update for Siamese Trackers》文章地址:[1] arXiv,[2] ICCV2019 openaccessgithub地址:https://github.com/zhanglichao/updatenet在早期的 Siamese 跟踪器里,第一帧就对目标模板进行初始化,后面都固定使用这个模板进行跟踪。然而实际任务中目标外观变化通常很明显,如果不能有效地更新目标模板,很快就会跟踪失败。为了解决这个问题,目前已经有人做了一些简单的更原创 2022-07-01 10:33:57 · 797 阅读 · 0 评论 -
【目标跟踪】|pytracking 配置 win 编译prroi_pool.pyd
按照pytracking 中win我的环境是vs2017 + python3.9+CUDA11.1 ,出现cuda和python版本的时候改成自己的版本即可。注意代码文件,github上有两个路径下分别有这两个文件,不要搞混了到此,编译会报两种错误点击第一个错误,直接注释掉:点击2-6处错误:将data改为data_ptrstd: 不明确的符号其他参考https://blog.csdn.net/qq_17783559/article/details/117716173...原创 2022-06-30 09:34:27 · 600 阅读 · 2 评论 -
【目标跟踪】|stark配置 win otb
运行之后会生成如下两个文件直接运行test 会报错 原因是路径问题,在local中所有路径前面加上r即可。更改准备测试的数据集路径如果不行更改environment.py 中绝对路径在工程中新建checkpoints/train/stark_st2/路径,然后将下载的预训练模型放到里面测试otb修改test.py 中的参数注意, 当再次运行时,需要将上次结果删除,否则无法运行analysis_results.py没有latex字体在lib/test/analysis/plot_results.原创 2022-06-29 08:40:56 · 1232 阅读 · 1 评论 -
【目标跟踪】|MOSSE原理及对应代码解释 matlab C
原理https://www.bilibili.com/video/av74302620/?spm_id_from=333.788.videocard.0https://blog.csdn.net/fzp95/article/details/78385795?utm_medium=distribute.pc_relevant.none-task-blog-baidujs_title-4&spm=1001.2101.3001.4242code// This file ispart of the原创 2021-04-11 22:16:50 · 2374 阅读 · 8 评论 -
【目标跟踪】|Meansift 算法原理及对应代码解释 matlab C
背景原理MeanShift算法属于核密度估计法,它不需要任何先验知识而完全依靠特征空间中样本点的计算其密度函数值。无参密度估计方法:不事先规定概率密度函数的结构形式,在某一连续点处的密度函数值 由该点邻域中的若干样本点估计 得出。常用的无参密度估计方法有:直方图法、最近邻域法和核密度估计法。核密度估计法的原理在直方图法基础上,加了一个用于平滑数据的核函数。MeanShift的基本思想及物理含义:在一定范围内的所有采样点相对于基准点的“合运动方向”, 即为meanshift向量的方向注原创 2021-04-10 22:53:15 · 1956 阅读 · 1 评论 -
【目标跟踪】|数据集
目标跟踪UAV123数据集https://pan.baidu.com/s/1hQCIjEx5VCZ455IL-Z6y3Q 7lwkVOT数据集下载——(vot2013到vot2019)百度网盘链接:https://pan.baidu.com/s/1co6NSk3imqhLWfq3H1ek1A提取码:bs6g常见数据集https://blog.csdn.net/laizi_laizi/article/details/105447947?utm_medium=distribute.pc_relev原创 2021-04-10 22:13:26 · 335 阅读 · 0 评论