大佬阅读笔记参考:https://blog.csdn.net/weixin_42731241/article/details/91415598
code:https://github.com/KaiyangZhou/deep-person-reid
摘要
作为实例级识别问题,人员重新识别(ReID)依赖于判别特征,其不仅捕获不同的空间尺度而且还封装多个尺度的任意组合。我们将这些特征称为同构和异构尺度的全尺度特征。在这篇论文中,一部新颖的深刻CNN被设计为全称网络(Omni-Scale Network OSNet),用于ReID中的全方位特征学习。这是通过设计由多个卷积特征流组成的残差块来实现的,每个卷积特征流检测特定尺度的特征。重要的是,引入了一种新颖的统一聚合门,以动态融合多尺度特征和输入相关的信道方向权重。为了有效地学习空间通道相关性并避免过度拟合,构建块使用逐点和深度卷积。通过逐层堆叠这些块,我们的OSNet非常轻量级,可以在现有的ReID基准测试中从头开始进行训练。尽管模型尺寸较小,但我们的OSNet在六个ReID数据集上实现了最先进的性能
引言
人的重新识别(ReID),是一项基础性的任务。分布式多摄像头监控,旨在匹配人群出现在不同的非重叠相机视图。作为一个实例级识别问题,面临两个主要挑战如图1所示。首先,行人之间(实例/标识)的变化通常很大,原因在于
相机观察条件的变化。例如,图1(a)和(b)中的两人都背着背包;视图相机之间的变化(从正面到背面)会给背包区域带来很大的外观变化,使之与背包的尺寸相匹配同一个人困难。其次,人们在公共场所穿着相似的衣服。
在监控录像中,它们看起来惊人的相似图中的四个人。