Attribute-aware Identity-hard Triplet Loss for Video-based Person Re-identification
代码地址: https://github.com/yuange250/Video-based-person-ReID-with-Attribute-information
1. 框架
2. 问题分析
DVDP问题: 正样本对的距离抖动比较大,Distance Variance among Different Positives (DVDP) problem
- 负样本的距离都大于0.3,正样本的距离满足效于0.3时,变化和抖动比较大
- 论文中分析,对于DVDP问题,一般的Reid特征分布没有规律,但是从属性的距离来看,DVDP和属性呈负相关,属性越相关,距离越近;反之,越远
属性noise问题
如d所示,一张图片存在多个行人的时候,属性模型识别的行人属性可能不是我们想要的那个行人的属性。
因此,我认为本文的主要的方法,使用更精确的属性进行triplet-pair mining
3. 方法
-
Attribute-aware Intra-Class Triplet Loss:使用属性的距离进行mining,挖掘的对象是正样本对中
- attribute-aware intra-class negative
- attribute-aware intra-class positive
-
Spatio-temoral attention
-
这个没啥好说的,就是把特征图做卷积,变成mask最后乘到特征图上 -
loss
挖掘办法:
把triplet的挖掘变成,使用按照属性进行挖掘
4. 实验
从可视化图的来看,attention在1和3比较明显,在2和4中感觉体现的并没有那么明显的
结果
DVDP问题解决的分析
图中的曲线代表:
- 蓝色:average distance between the intra-class negative and intra-class positive for all anchors in each batch
- 黄色:mAP in every validation process
5. 总结
本文提出的问题是有意义的,bbx中存在多个人时,属性确实带来一定程度的noise。因此本文相当于在triplet loss的基础上,结合属性设计了一种更细粒度的mining方法。意思是,对于所有正样本对,属性(衣服,姿态啥的)更相同的距离更小作为约束(说实话,我对于这种方法work的原因还是不太理解,并且文章解释的也不是很清楚,没有数学上的推导以及原理上的说明,就是放了一堆实验)。