1.引入
行人重识别中无监督学习:从源域有标签数据中学习到关于行人视图不变信息的特征表示,然后将模型转移、并且使之适用到无标签数据的目标域中。
大多数现有的人员重新识别(re-id)方法都需要从每个摄像机对的一大套成对标记的训练数据的单独大集合中进行监督模型学习。 由于需要跨许多摄像机视图执行重新识别,这极大地限制了它们在现实世界大规模部署中的可扩展性和可用性。 为了解决此可伸缩性(scalability)问题,作者提出了一种新颖的深度学习方法,将现有数据集的标记信息转移到一个新的看不见(未标记)的目标上,来进行人员重新识别,而无需在目标域中进行任何监督学习。 具体来说,引入了**可转移的联合属性身份深度学习(TJ-AIDL)**方法,用于同时学习可转移到任何新(未知)目标域的属性语义和身份识别特征表示空间,而无需从从目标域中添加新的标签训练数据。
2 介绍
这篇文章主要有三个贡献:(1)提出了一种新的思想,即关于属性和身份识别异构多任务联合深度学习(heterogeneous multi-task joint deep learning),用于无监督的人重新识别。这是第一次尝试辅助属性和身份标签的联合深入学习,以解决无监督的行人重识别问题跨域。 (2)采用可转让联合属性-身份深度学习(Transferable Joint Attribute-Identity Deep Learning—TJ-AIDL)通过身份推断属性(Identity Inferred Attribute-IIA)同时从标记的源域人图像中学习全局身份和局部属性信息最大化身份和属性之间联合学习有效性的步伐。 这个IIA是专门为解决臭名昭著的异方差挑战而设计的,公共空间多任务联合学习经常遭受这种挑战。 重要的是,IIA与属性和身份学习任务相互依赖地同时交互,而不破坏端到端的模型学习 进程。 (3)介绍了一种在未标记目标数据上进行TJ-AIDL模型无监督自适应的属性一致性方案,进一步增强了它对即将到来的每个目标域re-id任务的区分兼容性。
问题定义:对于基于属性(语义)的无监督域自适应行人重识别,有一个有标记的源数据 { ( I i s , y i s , a i s ) } i = 1 N s \{(I_{i}^s,y_{i}^s,a_{i}^s)\}^{N_s}_{i=1} { (Iis,yis,ais)}i=1Ns,其中包括 N s N^s Ns个行人边界框图像 I s I^s Is,相应的身份 y s ∈ { 1 , … … N i d s } y^s\in\{1,……N_{id}^s\} ys∈{ 1,……Nids},(即,总共有 N i d s N_{id}^s Nids<