单目标跟踪
文章平均质量分 71
写进メ诗的结尾。
这个作者很懒,什么都没留下…
展开
-
Deeper and Wider Siamese Networks for Real-Time Visual Tracking(SiamDW)
总结:这篇文章是通过复现Siamese Tracking的文章,发现文章只利用了AlexNet等较浅的网络作为backbone,而在检测、分类等其余的任务中可以发现ResNet等提取特征能力远远强于AlexNet,因此作者用ResNet、Inception等更深更宽的backbone做实验,希望可以提升效果。该篇论文通过大量实验发现,在Siamese系列的跟踪中,有这么几个因素对网络性能的影响比较大,分别是:感受野大小、网络步长、有无填充(Padding)、最后一层输出的特征图尺寸。原创 2023-07-05 13:56:43 · 175 阅读 · 0 评论 -
Distractor-aware Siamese Networks for Visual Object Tracking(DaSiamRPN)
之所以出现上面的问题,作者的结论是训练过程中的样本不均衡造成的。针对训练数据中的非语义背景和具有语义的干扰物背景的数据不平衡问题(就是简单背景样本太多了,而困难负样本太少),作者把ImageNet和COCO检测数据库中的数据也通过数据增广的方式做成正样本对来扩大训练数据集的种类,提高网络的泛化能力;注意:该策略的提出是在前两个改进的基础上提出的,是层层递进的关系,通过训练数据的增强和干扰物识别模型的提出,模型的判别能力已经很强了,这样在目标全遮挡时才可以扩大搜索区域。为当前帧的模板,该式最高的值。原创 2023-07-03 14:18:48 · 306 阅读 · 0 评论 -
SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks
论文主要的实验是在ResNet-50上做的。现代网络一般都把步长设置为32,但跟踪的两个视频帧目标位移很小,为了定位的准确性,一般步长都会设置的比较小(Siamese系列一般都为8),所以作者把ResNet最后两个block的stride去掉了,同时增加了dilated convolution,一是为了增加感受野,二是为了能利用上预训练参数。在测试的时候,图像边界区域上的概率被降级为零,不论目标在图像中的哪个位置,甚至外观特征有多明显,都会在图像中心产生一个较大的偏移,这和训练过程中采用的方式有关。原创 2023-07-03 13:27:48 · 308 阅读 · 0 评论 -
High Performance Visual Tracking with Siamese Region Proposal Network(SiamRPN)
在RPN子网络中,经过特征提取网络得到的模板特征图和搜索特征图都会送入分类分支和回归分支中,而后在两个分支中,模板特征图分别经过一个3×3卷积层得到相应特征图4×4×(2k×256)和4×4×(4k×256),特征通道从256增加到了2k×256和4k×256。对于回归分支,将4k个模板图像anchor的4×4×256作为卷积核,与搜索图像的20×20×256进行卷积操作(互相关),从而生成回归响应图17×17×4k,响应图上的每个点表示一个维度为4k的向量。因此,该框架被修改为局部检测网络。原创 2023-07-03 00:06:24 · 149 阅读 · 0 评论 -
SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines(AAAI2020)
得到了响应图之后,接着进行相关的head操作,这里作者提出了两个head,分别用于获取分类分数和位置回归分数,其中作者为了更好的平衡分类得分与目标位置的关系,引入了质量评分,将质量评分与分类得分相乘得到最后的选择预测框的得分。该网络结构十分简单直观,首先用相同的φ(作者源码里提供了AlexNet、GoogleNet等主干网络)来进行特征提取,得到的feature map分别输入到分类分支和回归分支,在两个分支中,模板feature map与搜索feature map进行互相关计算。原创 2023-07-02 16:13:40 · 178 阅读 · 0 评论 -
Fully-Convolutional Siamese Networks for Object Tracking(SiamFC)
全卷积网络的优势在于,可以将一个更大的搜索图像作为输入提供给网络,它将在单个评估中计算所有平移后的子窗口的相似度,而不是提供与模板图像具有同样大小的图像。模板分支的输入图像大小为127×127×3,搜索分支的输入图像大小为255×255×3,经过特征提取网络(作者采用了AlexNet的网络结构)后,分别得到6×6×128的模板特征图和22×22×128的搜索特征图,而后进行互相关操作,生成17×17×1的响应图。原创 2023-07-02 13:08:10 · 249 阅读 · 0 评论 -
使用OpenCV读取若干视频,并将它们进行逐帧拼接,再输出为视频
循环,直到其中任意一个视频读取完毕才退出循环。这是因为,如果其中任意一个视频比其他视频更长,那么在拼接视频时就需要保证所有视频的帧数相同。在处理视频时,还需要注意释放资源,以避免内存泄漏。函数获取了这些视频的帧率、宽度和高度,以便在创建输出视频时使用。函数从三个输入视频中分别读取一帧,并将这三帧使用。需要注意的是,我们在处理输入视频时,使用了一个。,并指定了输出视频的格式、帧率和大小。在逐帧读取输入视频时,我们使用。函数将拼接后的帧写入输出视频。函数分别读取了三个输入视频。在这个程序中,我们首先使用。原创 2023-05-12 15:07:57 · 1085 阅读 · 0 评论 -
OSTrack的一些代码执行命令讲解
执行如下命令可以生成路径文件,分别会在OSTrack/lib/train/admin目录和OSTrack/lib/test/evaluation目录下生成local.py文件,里面是各种路径的默认设置。配置文件为OSTrack/experiments/ostrack/vitb_256_mae_ce_32x4_ep300.yaml。一些单目标跟踪算法的代码执行命令非常相似,例如Stark、OSTrack、CSWinTT、AiATrack等,因此对一些命令进行讲解,有助于提升代码研究效率。原创 2023-04-18 17:59:05 · 2125 阅读 · 2 评论 -
SwinTrack: A Simple and Strong Baseline for Transformer Tracking(NIPS2022)
近期,Transformer在视觉跟踪方面进行了深入探索,并展示了显著的潜力。然而,现有的基于Transformer的跟踪器主要将Transformer用于融合和增强由卷积神经网络提取的特征,Transformer在表征学习中的潜力仍未被发掘。在本文中,提出了一个建立在经典孪生框架基础之上的简单而高效的基于全注意力的Transformer跟踪器(SwinTrack),以进一步释放Transformer的潜力。原创 2023-04-13 22:03:33 · 992 阅读 · 0 评论 -
单目标跟踪算法调研(2020)
【代码】单目标跟踪算法调研(2020)原创 2023-03-18 22:18:17 · 1012 阅读 · 0 评论 -
单目标跟踪算法调研(2019)
【代码】单目标跟踪算法调研(2019)原创 2023-03-17 16:32:41 · 419 阅读 · 1 评论