行人ReID,参考以及后续训练,持续更新(一)2018-2019

数据介绍,
http://blog.fangchengjin.cn/reid-market-1501.html
Market-1501 是目前常用的行人重识别数据集,包含12,936张训练图像(来自751个不同的人),和 19,732张测试图像(来自另外750个不同的人)。
Market+500k,增加同场景的干扰集50万,增加后的测试集有 519,732张图像 ,难度增加,性能下降

https://blog.csdn.net/ctwy291314/article/details/83544142
行人重识别(ReID) ——数据集描述 DukeMTMC-reID

1、https://zhuanlan.zhihu.com/p/35296881 ,云从2018年的文章,主要是网络修改

Market-1501上的首位命中率(Rank-1 Accuracy)达到96.6%,
https://github.com/GNAYUOHZ/ReID-MGN
在这里插入图片描述

2.1、2018中科院&地平线开源state-of-the-art行人重识别算法EANet:增强跨域行人重识别中的部件对齐 ,https://github.com/huanghoujing/EANet, 关于跨域的行人reid的研究,用到了对

目前有点复杂,有分割有关键点模块
在这里插入图片描述

2.2 SSG–ReID–2019ICCV ,也是行人ReID跨域操作的论文

最后精度似乎更好一点对比2.1, 无监督聚类,半监督训练策略。主干网络res50,迁移训练方式值得借鉴,有源码

源域训练好的模型在目标域上表现不好的原因是因为模型无法正确发现不同图像之间的相似性,为了学习目标域图像之间的相似性,提出了Self-similarity Grouping approach(SSG),SSG的目标是激励模型去发掘目标域中存在的相似性,为目标域中每个person基于grouping的结果打上伪标签。SSG算法:

3、https://zhuanlan.zhihu.com/p/61831669 ,旷世2018

其中的basemodel 网络的特征损失函数的输入是否进行超球面的归一化
总结就是,特征bn ,最后的特征图扩大一倍,数据随机擦除局部
(5) BNNeck
这是这篇文章的核心点。我们常用的Baseline通常会同时使用ID损失和triplet损失一起优化同一个feature。但是在大量前置的研究发现,分类损失其实是在特征空间学习几个超平面,把不同类别的特征分配到不同的子空间里面。并且从人脸的SphereFace [4]到ReID的SphereReID [5]等工作都显示,把特征归一化到超球面,然后再优化分类损失会更好。triplet loss适合在自由的欧式空间里约束。我们经常观察到,如果把feature归一化到超球面上然后再用triplet loss优化网络的话,通常性能会比不约束的时候要差。我们推断是因为,如果把特征约束到超球面上,特征分布的自由区域会大大减小,triplet loss把正负样本对推开的难度增加。而对于分类超平面,如果把特征约束到超球面上,分类超平面还是比较清晰的。对于标准的Baseline,一个可能发生的现象是,ID loss和triplet loss不会同步收敛。通常会发现一个loss一直收敛下降,另外一个loss在某个阶段会出现先增大再下降的现象。也就是说这两个task在更新的过程中梯度方向可能不一致。但是由于最终都能够收敛,所以可能容易引起大家的忽视,我相信应该不只是我们观察到过这个现象。

用了bn 层让特征近似有L2 归一化的作用,分类的FC的bias关

对于靠近ID loss的 [公式],余弦距离的度量效果显著好于欧式距离。也说明分类损失约束的feature更加适合余弦距离,不加L2 归一化的,更适合用欧式距离
结果显示REA(随机擦除数据增强)会大大的降低跨域的性能,但是单域上,性能会提高,也就是说会更适应训练场景类似数据,换一个场景的泛化性会降低。如果不是跨域应用建议采用随机擦除数据增强

作者的解释,feature经过一个BN层得到 [公式] ,经过BN层的归一化之后, batch里面[公式] 的各个维度都被拉到差不多,最后近似地在超球面附近分布。当然不是严格意义上的,只是近似地而已。当然也可以尝试一下直接用L2 norm得到 [公式] ,但应该效果会低于BNNeck。因为L2 norm是一个无参数的强约束,产生的梯度会直接全部传给 [公式] ,其实改变并不大。而BNNeck的话还有BN层的参数可以吸收梯度,相对来说对 [公式] 的影响会弱一点。
在这里插入图片描述

https://www.jianshu.com/p/31eb7f13a772 关于人脸识别中的L2归一化的探讨
我们对人脸特征进行归一化,也就是向量除以其L2范数。得到的特征其L2范数为单位L2范数
例如【1,2】,让向量模为1 的操作,首先l2 归一化(分母根号(1+4)),变成【0.447,0.894】, 然后再求模就一定是1,求模是 每个值的平方和开根号

可以采用1,的结构,添加3 的训练方式。分别再单域数据, 验证,以及多域验证。也可以采用efficiennet 替代,resnet部分。

4、https://zhuanlan.zhihu.com/p/70268783

工程实践中,目标检测为何要加目标追踪? ,去除单纯检测的抖动,

5、https://zhuanlan.zhihu.com/p/82398949

resnet+IBN 结构加tricks 行人ReID泛化性能,提高很多, 可以加入 IBN在主干网络中

6、https://zhuanlan.zhihu.com/p/44796359

高效行人检测

7、https://blog.csdn.net/weixin_39417323/article/details/100062101 行人重识别之网络设计,2019

效果有提升,
在这里插入图片描述

CIA+SIA 即插即用的一个模块,可以结合 135,进行实验,结合多种方式效果有没有更好。1,云从针对行人特征,改进模型, 5,IBN在bn基础上增加了操作,是一个小的结构的嵌入,IA是一个独立完整的结构插在卷积的后面
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值