论文核心:
1.motivation: 如果可以在训练集中增加更多样本来了解摄像机之间的风格差异,就能够解决个人身份识别中的数据稀缺问题,并学习不同摄像机之间的不变特征。
解决:使用cycleGAN完成镜头间图片转换,损失函数使用cycleGAN loss 和 identify mapping loss。
2.motivation:增加数据多样性以防止过度拟合,但是也会产生相当程度的噪音。
解决:为了缓解这个问题,在改进后的版本中,进一步在样式转移样本上应用标签平滑正则化(LSR)[25],以便他们的标签在训练期间柔和地分布。
因此,使用生成图片及原图训练,扩充了数据集。训练集使用的是原始训练图像和风格转移图像的组合。
论文网络框架:
本文方法:
1.cycleGAN回顾:
2.Camera-aware Image-Image Translation
使用CycleGAN生成新的训练样本:不同相机之间的样式被认为是不同的domains 。 给定包含从L个不同相机视图收集的图像的数据集,使用CycleGAN对每个相机学习translation 模型。 为了鼓励样式转换以保持输入和输出之间的颜色一致性,我们在CycleGAN损失函数(方程1)中添加了identity mapping loss [41],以在使用目标的实际图像时强制生成器逼近身份映射域作为输入。 身份映射损失可以表示为:
3.3. Baseline Deep Re-ID Model
鉴于真实的和假的