ByteTrack多目标跟踪算法使用yolox官方模型进行多类别跟踪

ByteTrack官方提供的demo只能检测人,无法多类别检测。

所以尝试直接下载 yolox 的官方预训练模型作为检测模型进行多目标跟踪。

yolox官方预训练模型下载地址:

https://github.com/Megvii-BaseDetection/YOLOX/

我下载YOLOX-m模型,放在ByteTrack/pretrained目录下。

编辑./yolox/data/data_augment.py文件,将preproc 函数替换为原 yolox 项目中的 preproc 函数即可。

def preproc(img, input_size, swap=(2, 0, 1)):
    if len(img.shape) == 3:
        padded_img = np.ones((input_size[0], input_size[1], 3), dtype=np.uint8) * 114
    else:
        padded_img = np.ones(input_size, dtype=np.uint8) * 114

    r = min(input_size[0] / img.shape[0], input_size[1] / img.shape[1])
    resized_img = cv2.resize(
        img,
        (int(img.shape[1] * r), int(img.shape[0] * r)),
        interpolation=cv2.INTER_LINEAR,
    ).astype(np.uint8)
    padded_img[: int(img.shape[0] * r), : int(img.shape[1] * r)] = resized_img

    padded_img = padded_img.transpose(swap)
    padded_img = np.ascontiguousarray(padded_img, dtype=np.float32)
    return padded_img, r

修改demo_track.py文件,将img, ratio = preproc(img, self.test_size, self.rgb_means, self.std)替换为:

img, ratio = preproc(img, self.test_size)

运行查看效果:

python tools/demo_track.py video -f exps/default/yolox_m.py -c pretrained/yolox_m.pth --fp16 --fuse --save_result

改为使用yolox官方提供的模型后,识别帧率居然能高不少!

  • 1
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
要复现bytetrack,你可以按照以下步骤进行操作: 1. 首先,从GitHub上下载bytetrack的源码压缩包。你可以在https://github.com/pdollar/coco.git找到源码。将压缩包解压后,将其放在site-packages文件夹下。具体路径可以参考你的环境设置,比如D:\MyEnvironment\Anaconda3\envs\byte_track\Lib\site-packages。\[1\] 2. 进入项目文件夹,并在命令行中输入以下命令: ``` cd 项目文件夹路径 python tools/demo_track.py video -f exps/example/mot/yolox_x_mix_det.py -c pretrained/bytetrack_x_mot17.pth.tar --fp16 --fuse --save_result ``` 这个命令将运行bytetrack的演示脚本,使用预训练模型进行视频跟踪。你需要将"项目文件夹路径"替换为实际的项目文件夹路径。\[2\] 3. 在跟踪任务中,由于阈值过滤掉了低置信度的检测框,可能会导致检测信息的丢失和跟踪中断的情况。为了解决这个问题,BYTE保留了每个检测框,并将其分为高分检测框和低分检测框。这样可以更好地处理被遮挡的物体等情况。\[3\] 通过按照以上步骤进行操作,你应该能够成功复现bytetrack。请确保你已经正确设置了环境,并且按照要求下载了源码和预训练模型。 #### 引用[.reference_title] - *1* *2* [复现经典目标跟踪算法ByteTrack之路:调通第一个demo](https://blog.csdn.net/hhh590_hh/article/details/126916833)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [ByteTrack: Multi-Object Tracking by Associating Every Detection Box论文理解及代码复现](https://blog.csdn.net/qq_39821101/article/details/121031225)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值