DasiamRPN论文阅读


文献:DaSiamRPN: Zheng Zhu, Qiang Wang, Bo Li, Wu Wei, Junjie Yan, Weiming Hu.“Distractor-aware Siamese Networks for Visual Object Tracking.” ECCV (2018). [paper] [github]

文章主要贡献

1.训练数据的扩充

  1. 加入Detection pair (ImageNet,COCO中做数据增广)
  2. negative simple in same categories (Called Distractor-aware Training)
  3. negative simple in different categories (Called Distractor-aware Training)

2.Distractor Model

  • 引入Distractor Model,将Proposal与exemplar的相似性度量得分减去所有之前预先得到的Distrator(NMS将网络提出的proposal去冗余,去掉classification score最高的proposal,在剩下的Distrator set 中保留score大于给定阈值的proposal)与当前proposal 的score(相似性度量)的加权和的平均

3.long term Tracking

  • 当追丢时用local to global stategy 恒定step迭代的增加搜索区域的大小

具体而言

1. 扩充数据集


检测中的pair在这里插入图片描述在这里插入图片描述
detection pairsnegative pair from same categoriessnegative pairs from different categories

2. Distractor Model

TEST: Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n)=(n-1)!\quad\forall n\in\mathbb N Γ(n)=(n1)!nN
传统的SiamTracking是用求相似性度量用以下公式:
f ( x ) = φ ( x ) ∗ φ ( z ) + b ⋅ 1 f(x)=\varphi(x)*\varphi(z)+b\cdot\mathbf{1} f(x)=φ(x)φ(z)+b1

  • 作者提出将NMS将网络提出的proposal去冗余,去掉classification score最高的proposal,在剩下的Distrator set 中保留score大于给定阈值的proposal)与当前proposal 的score(相似性度量)的加权和的平均
    q = arg ⁡ max ⁡ p k ∈ P f ( z , p k ) − α ^ − ∑ i = 1 n α i f ( d i , p k ) ∑ i = 1 n α i q=\mathop{\arg\max}\limits_{p_{k}\in\mathcal{P}} f(z,p_{k})- \frac{\hat{\alpha}-\sum_{i=1}^{n}\alpha_{i}f(d_{i},p_{k})} {\sum_{i=1}^{n}\alpha_{i}} q=pkPargmaxf(z,pk)i=1nαiα^i=1nαif(di,pk)
    P \mathcal{P} P 是score在top-k的proposal, α i \alpha_{i} αi是每个干扰proposal的权重(paper中是全为1), d i d_{i} di是第 i i i 个 distractor proposal
  • 因为自相关操作是线性的,则将 φ ( p k ) \varphi(p_{k}) φ(pk)提出来:

q = arg ⁡ max ⁡ p k ∈ P ( φ ( z ) − α ^ ∑ i = 1 n α i f ( d i , p k ) ∑ i = 1 n α i ) ∗ φ ( p k ) q=\mathop{\arg\max}\limits_{p_{k}\in\mathcal{P}}(\varphi(z)-\frac{\hat{\alpha}\sum_{i=1}^{n}\alpha_{i}f(d_{i},p_{k})} {\sum_{i=1}^{n}\alpha_{i}})*\varphi(p_{k}) q=pkPargmax(φ(z)i=1nαiα^i=1nαif(di,pk))φ(pk)

3.Long term Tracking

  • 当追丢时用local to global stategy 恒定step迭代的增加搜索区域的大小
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值