论文笔记18 --(ReID)Spatial-Temporal Person Re-identification

《Spatial-Temporal Person Re-identification》
论文https://arxiv.org/abs/1812.03282?context=cs
GitHubhttps://github.com/Wanggcong/Spatial-Temporal-Re-identification


这篇是中山大学赖剑煌老师团队发表在AAAI2018上的一篇paper。这篇paper在有监督的reid上结合了时空数据做多模态融合,在Market-1501和Duke两个数据集上达到了超越所有纯视觉有监督方法的效果,在reid的实际应用场景中,我们非常容易获取时空信息,哪个摄像头在什么时间拍摄图像完全可以知道。

Market-1501: rank-1=98.0%, mAP=95.5%
Duke-MTMC:rank-1=94.5%, mAP=92.7%

架构非常简单,用ResNet50+PCB提取视觉特征和视觉相似度,在从数据集中提取时间和摄像头编号构造行人迁移的时空模型,算出时空相似度,然后对两个分数做一点精修再相乘,得到融合的分数。

Reference

https://zhuanlan.zhihu.com/p/52274204

deep-person-reid是一个用于行人重识别的开源库,它基于PyTorch深度学习框架实现。在使用deep-person-reid进行行人重识别之前,需要进行以下步骤: 1.安装deep-person-reid库 ``` pip install deep-person-reid ``` 2.准备数据集 deep-person-reid支持Market1501、DukeMTMC-reID、CUHK03等多个数据集。你需要先准备好数据集并按照要求的文件夹结构进行组织。 3.配置文件 在deep-person-reid中,模型的配置信息是通过yaml文件进行配置的。你需要创建一个yaml文件,指定数据集路径、模型类型、训练参数等信息。以下是一个示例配置文件: ``` data: sources: ['market1501'] targets: ['market1501'] height: 256 width: 128 combineall: False transforms: ['random_flip', 'color_jitter'] model: name: resnet50 pretrained: True num_classes: 751 loss: name: triplet margin: 0.3 weight_t: 1 weight_x: 1 weight_reg: 0.0005 optimizer: name: adam lr: 0.0003 weight_decay: 5e-04 lr_scheduler: name: step step_size: 40 gamma: 0.1 train: start_epoch: 0 max_epoch: 60 batch_size: 32 workers: 4 print_freq: 10 test: batch_size: 100 workers: 4 ``` 在这个示例配置文件中,我们指定了使用Market1501数据集,使用resnet50模型,使用triplet loss进行训练,使用adam优化器进行优化等等。 4.训练模型 使用deep-person-reid训练模型非常简单,只需要执行以下命令即可: ``` python train.py --config-file /path/to/config.yml ``` 其中,`/path/to/config.yml`指定了你的配置文件路径。 5.测试模型 在训练完成后,你可以使用以下命令测试模型: ``` python test.py --config-file /path/to/config.yml ``` 这个命令会输出模型在测试集上的准确率等指标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值