最近在看行人重识别领域中的风格迁移有关的数据集生成方法,找到了几篇相关的论文:
DG-Net
生成不同颜色与纹理的行人图像数据,同时将其与行人重识别模型融合,同时提升行人生成的质量和行人重识别的精度。
这篇论文很绝的idea体现在下面两幅图:
我们首先定义了两种特征。一种为外表特征,一种为结构特征。外表特征与行人的ID相关,结构特征与low-level的视觉特征相关。
这两个损失可以通过下图来理解。如果横过来看,每一行,使用的是相同的appearance code,我们使用老师-学生模型Lprim来挖掘相似的外表信息。 而看每一列,虽然人换了不同的衣服,我们仍旧可以从中挖掘一些细粒度的信息如身材等,即Lfine 。
DG-Net++
GCL
就是将GAN和对比学习模块结合起来,对比学习不是需要数据增强吗,就用GAN的视图生成器来做这个增强,还提出了一种对比学习的损失函数,实验也证明取得了SOTA。
这篇工作提出使用3D网格生成器,首先我们定义一个3D网络中的一个2D平面作为原始的基础平面Sori,我们分别旋转3d网络,并且继续随机选择一个二维投影作为一个新的平面Snew。其实目的就是使用3D模型旋转来模拟不同角度照相机。