这是我读论文写的第一篇总结,有什么不对的地方请大家多多指教。
一、动机
无监督的行人重识别因为其可扩展性越来越受人关注。但是在不相交的相机视角上没有成对的标签的情况下,如果想要学习到具有识别力的信息是非常困难的。为了解决这个问题,作者提出了用于无监督Re-id的一种深度模型。它的作用就是利用辅助数据集为每个目标数据集中的样本学习一个软多标签(真值标签似然向量)。
二、三个损失函数
1、硬负样本挖掘(hard negative mining):作用就是让同一个人的样本离得更近,不同人的样本离得更远
如上图所示,如果一对未标记的行人图像有很高的特征相似性,就称其为Similar Pairs,Pair1和Pair2都是Similar Pairs,如果一个相似的对具有高度相似的比较特征(comparative characteristics),那么它可能是一个正样本对(同一个人)。否则,它可能是一对硬负样本对(非同一个人)。对于如何衡量比较特征,作者提出了soft multilabel agreement,具体的公式如下:
直觉上,软multilabel协议是一个模拟投票的参考人员:每一个引用的人k给他/她保守协议min(易(k), yj (k)相信他们是积极的(越相似/相关参考标记两人,更重要的是他/她的词),和软multilabel协议是累积的参考。软多标签协议是基于L1距离来定义的,取绝对值来公平对待每一个参考人的协议。
2、跨视图一致性的软多标签学习(Cross-view consistent soft multilabel learning)
因为行人数据集中的样本来自于多个摄像机,所以针多摄像头下的同一个人而言,作者希望学习到的软多标签是一致的,但实际上并不非如此。如下图所示:
于是作者对分布的差异性进行惩罚,提出如下损失函数损失函数如下:
3、代理参考学习(Reference agent learning)
参考代理在特性嵌入中表示唯一的参考人员,类似于紧凑的“特性摘要器”。因此,参考代理之间应该相互区分,而每一个参考代理都应该代表所有对应的人的图像。考虑到参考剂是在软多标签函数l(·)内进行比较的,我们制定了代理学习损失: