- 博客(7)
- 收藏
- 关注
原创 Visual Transformer
Deformable DETRMotivationDETR对于小物体的检测能力较差。现代的目标检测器用高像素的图像来检测小物体,但是使用高像素图像会导致DETR中encoder的计算复杂度增高。O(size3)O(size^{3})O(size3)DETR需要更多的训练轮次来收敛,收敛速度较慢。For example,在训练初始,cross-attention模块在整个特征图谱上都作attention,而在训练快结束时,注意力图谱已经被学习得非常稀疏,仅仅关注物体存在的部分。DETR需要训练很久来得
2021-06-02 21:12:09 400
原创 Stark阅读笔记
Learning Spatio-Temporal Transformer for Visual Tracking "Stark"阅读笔记MotivationContributionArchitechtureStark是最新的SOTA跟踪模型,在多个benchmark上,如Got-10k,LaSOT上都取得了state-of-the-art的效果,并且比另一SOTA模型Siam R-CNN的速度快了6倍。Motivation近年来比较流行的tracker,都是基于卷积神经网络线下学习以及做onlin
2021-04-21 21:22:50 3247
原创 position embedding
【转载】 关于Transformer中的position embedding一文教你彻底理解Transformer中的positional encodingTransformer中position embedding的劣势:Transformer中的position embedding
2021-04-20 18:53:13 1019
原创 Siamese Tracking with Lingual Object Constraints
Siamese Tracking with Lingual Object Constraints阅读笔记摘要Related WorkVQATracking标准Architechturepre-processingtrackerWord EmbeddingsFrameworkSiamCT-DFG摘要本文将tracking任务增加了lingual限制,即给定一串文本,tracker根据文本的信息来追踪特定的目标。与另一篇将跟踪与文本相结合的文章Tracking by Natural Language Sp
2021-03-29 19:19:29 469
原创 Leetcode刷题笔记 2021-6-26更新
Leetcode 刷题笔记动态规划354.俄罗斯套娃思路一trick1:sort()函数trick2:max_element()思路二动态规划354.俄罗斯套娃解题思路在于,将数组的其中一维从小到大排列,从而固定一维,把问题简化到找出另一维中的最长递增序列。思路一依次遍历第二维的序列,令f(i)f(i)f(i)为序列前i个数字中的最长递增序列的长度,则有f(i)=maxj<i,h[j]<h[i]f(j)+1f(i)=max_{j<i,h[j]<h[i]}f(j)+1f(i
2021-03-04 19:00:07 1642 1
原创 High Performance Visual Tracking With Siamese Region Proposal Network(SiamRPN)阅读笔记
SiamRPN阅读笔记前言模块孪生网络实施细节RPN实施细节前言SiamRPN是在孪生网络的基础上增加了RPN模块,即可以让tracker对在检测帧中选择的proposals进行学习,并对目标进行回归,从而检测帧中使用更慢的selective search。SiamRPN速度很快,但未在在线跟踪中对模型进行fine-tuning,因此其精确度较之后能进行online learning的tracker还是差了些。模块孪生网络孪生网络(Siamese)在近年来是tracker模型的主流,得益于其通过将
2020-12-28 09:37:33 484 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人