源代码来了 | 英伟达开源行人生成/重识别代码

前几天英伟达开源了DG-Net的源码。让我们来回顾一下这篇CVPR19 Oral的论文。

论文是英伟达(NVIDIA), 悉尼科技大学(UTS), 澳大利亚国立大学(ANU)的研究人员 在CVPR19上口头报告的文章《 Joint Discriminative and Generative Learning for Person Re-identification》。 深度学习模型训练时往往需要大量的标注数据,但收集和标注大量的数据往往比较困难。作者在行人重识别这个任务上探索了 利用生成数据来辅助训练的方法。通过生成高质量的行人图像,将其与行人重识别模型融合,同时提升行人生成的质量和行人重识别的精度。


论文链接:https://arxiv.org/abs/1904.07223
B 站视频: https://www.bilibili.com/video/av51439240/
腾讯视频: https://v.qq.com/x/page/t0867x53ady.html

代码地址:https://github.com/NVlabs/DG-Net

 

代码运行效果:(训练100000次迭代)

 

开发环境:

  • Python 3.6
  • GPU Memory >= 15G 如果使用fp32精度
  • GPU Memory >= 10G 如果使用fp16精度,可以节省一部分显存
  • NumPy
  • PyTorch 1.0+
  • [Optional] APEX (使用fp16要安装)

 

数据集下载地址:

采用的是Market-1501 数据集 http://www.liangzheng.com.cn/Project/project_reid.html

 

训练好的模型下载:

 

测试效果如下:

  • 行人重识别的精度:

  • 生成的行人图像:

 

训练的命令很简单:

选项已经内置到yaml文件中,若按照全精度fp32来运行,约占用15G显存。

python train.py --config configs/latest.yaml

若使用半精度训练,则只使用约10G显存。

python train.py --config configs/latest-fp16.yaml

训练的log可使用tensorboard 来查看

 tensorboard --logdir logs/latest

 

作者简介
本文的第一作者郑哲东是悉尼科技大学计算机科学学院的博士生,预计2021年 6 月毕业。该论文是其在英伟达实习期间的成果。

郑哲东目前已经发表8篇论文。其中一篇为ICCV17 spotlight,被引用超过了300次。首次提出了利用GAN生成的图像辅助行人重识别的特征学习。一篇TOMM期刊论文被Web of Science选为2018年高被引论文,被引用超过200次。同时,他还为社区贡献了行人重识别问题的基准代码,在Github上star超过了1000次,被广泛采用。

另外,论文的其他作者包括英伟达研究院的视频领域专家 - 杨晓东、人脸领域专家禹之鼎(Sphere Face,LargeMargin作者)、行人重识别专家郑良博士,郑哲东的导师杨易教授(今年有三篇 CVPR oral 中稿)、和英伟达研究院的副总裁 Jan Kautz。

 

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Layumi1993

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值