英伟达-城市挑战赛跨摄像头追踪

挑战赛复现-SCIT-MCMT-Tracking

[CVPRW2023] “Leveraging Future Trajectory Prediction for Multi-Camera People Tracking”
NVIDIA城市应用挑战赛

原始地址:https://github.com/yuntaeJ/SCIT-MCMT-Tracking#cvprw2023-leveraging-future-trajectory-prediction-for-multi-camera-people-tracking

本地只做验证,由于数据集不够,故训练略:

第一步:克隆对应库
git clone https://github.com/yuntaeJ/SCIT-MCMT-Tracking.git
第二步:按照教程所示:

以原始的ervironment.yaml为根,用conda创建虚拟环境和对应的依赖

conda env create --file environment.yaml
conda activate scit

执行 sh setup.sh

sh setup.sh

这里有几个点需要注意:

  1. setup.sh中使用到了
pip3 install 'git+https://github.com/cocodataset/cocoapi.git#subdirectory=PythonAPI'

但是在国内网中发现这个文件访问失败,疑似是国内网的原因。因此,我们将它通过其它手段克隆下来

git clone https://github.com/cocodataset/cocoapi.git

随后cd 到cocoapi/PythonAPI中

pip install .

执行安装,这样就能成功安装

  1. 安装mmcv-full
pip3 install mmcv-full==1.7.1

无法直接安装,会提示报错
应该按照这样的方式安装

pip install -U openmim 
mim install mmcv-full==1.7.0

这样就成功安装了

第三步:下载对应的权重文件

分别是pretrained-YOLOX-X.pthyolov7-pose-estimationpretrained-social-implicit.pthhomography_list.pkl
如果需要用自己的数据训练的话:
则根据目标检测训练pretrained-YOLOX-X.pth
根据姿态估计训练yolov7-pose-estimation
根据Social-Implicit上提供的轨迹姿态训练进行训练

第四步:执行单摄像头跟踪
sh run_scmt.sh

执行
执行后命令行:
运行过程
原始文本下出现了track_vis文件夹,这是处理后的文件夹
在这里插入图片描述

里面存放标签文本和预测后的视频文件
在这里插入图片描述

第五步:执行多摄像机跟踪
sh run_mcmt.sh

将第一步得到的标签文件改成label.txt
这里需要下载 https://github.com/RizwanMunawar/yolov7-pose-estimation 并将其文件合并到项目主路径下
需要将权重文件复制到 tools文件夹下
在这里插入图片描述

执行后
在这里插入图片描述

最后得到了sorted_associated.txt
在这里插入图片描述

后续 得到的这个sorted_associated.txt
可以得到多个摄像机的关联目标写一个cv脚本,将这个数据关联起来,就可以得到切换的数据了

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值