部署并应用ByteTrack实现目标跟踪

尽管YOLOv8已经集成了ByteTrack算法,但在这里我还是想利用ByteTrack官网的代码,自己实现目标跟踪。

要想应用ByteTrack算法,首先就要从ByteTrack官网上下载并安装。虽然官网上介绍得很简单,只需要区区6行代码,但对于国内用户来说,要想安装ByteTrack,只要这些代码是万万不会成功的。我按照复现经典目标跟踪算法ByteTrack之路:调通第一个demo这个网站介绍的安装过程成功地实现了ByteTrack的部署。该博文介绍得很详细,我在这里就不再赘述了。下面我详细介绍如何应用ByteTrack。

我们首先给出ByteTrack的核心关键代码。

导入ByteTrack:

import sys
sys.path.append(f"D:/ByteTrack")
from yolox.tracker.byte_tracker import BYTETracker

D:\ByteTrack为下载ByteTrack时,其所在的目录。

下面设置ByteTrack的参数:

class BYTETrackerArgs:
    track_thresh: float = 0.25
    track_buffer: int = 30
    match_thresh: float = 0.8
    aspect_ratio_thresh: float = 3.0
    min_box_area: float = 1.0
    mot20: bool = False

track_thresh表示跟踪置信阈值。简单地说,该值越大,被赋予目标跟踪ID的数量越少,也就意味着系统会把不太确定的轨迹抛弃掉。默认值为0.5。

track_buffer用于保留丢失轨迹的帧数。对于没有出现的ID,最多保留该值的帧数。默认值为30。

match_thresh表示跟踪匹配阈值。该值越大,目标与轨迹越容易匹配上。默认值为0.8。

aspect_ratio_thresh表示目标边框长宽之比的阈值。目标长宽之比大于该值时会把该目标滤除掉,这是因为长宽比过大时,显然它不会是任何物体。默认值为1.6。

min_box_area表示目标边框的面积阈值。目标面积小于该值时会把该目标滤除掉。默认值为10。

mot20表示是否使用mot20数据集进行测试。默认值为False。

实例化ByteTrack,并带入参数:

byte_tracker = BYTETracker(BYTETrackerArgs(), frame_rate=fps)

frame_rate表示视频每秒传输的帧数。默认值为30。

得到目标ID:

tracks = byte_tracker.update(outputs, img_info=frame.shape, img_size=frame.shape)

outputs表示目标检测器的输出,ByteTrack需要先进行目标检测,然后才能利用ByteTrack算法实现跟踪,outputs应为二维数组,第一维表示目标,第二维表示该目标的信息,其前四个元素为目标边框的左上角和右下角的坐标,第5个元素为该目标的得分值,一般我们可以为该值赋予目标的置信值。

img_info表示输入视频图像的尺寸。

img_size表示输出图像的尺寸,如果不对视频图像的尺寸进行改变的话,就让该值等于img_info。

输出tracks即为目标跟踪的结果,我们先用print(tracks)看看它的输出:

[OT_2_(1-28), OT_3_(1-28), OT_4_(1-28), OT_7_(26-28)]

从中可以看出,我们共得到了4个目标跟踪结果,它们的ID分别为2、3、4和7,其中ID为2的目标在第1帧开始出现,28为当前帧数,即在第28帧时,我们使用了print(tracks)这个代码。

我们再看看tracks的几个重要属性:

print(tracks[0].tlbr)
print(tracks[0].tlwh)
print(tracks[0].track_id)
print(tracks[0].score)

输出为:

[     820.39      184.35      852.77       204.6]
[     820.39      184.35      32.382      20.246]
2
0.7806676

tlbr表示该目标边框的左上角和右下角坐标;tlwh表示该目标边框的左上角坐标和它的长宽;track_id表示该目标的ID;score表示该目标的得分值。

有了目标ID,我们就可以为视频添加各类信息,如为目标添加ID和类别,以及绘制目标边框。我们可以直接利用tracks完成上述操作,但这里会有几个问题:第一由tracks得到的目标边框没有由outputs得到的目标边框准确;第二tracks没有目标类别信息。因此在这里我们还是利用outputs为目标添加各类信息,它要解决的问题是目标的ID是什么。

我们只需比较outputs和tracks的目标尺寸,完成匹配成对,就可以为outputs中的目标赋予ID。我们利用IOU算法来实现尺寸比较,为此我们编写下面函数:

def iou(box: np.ndarray, boxes: np.ndarray):
    # 计算交集
    xy_max = np.minimum(boxes[:, 2:], box[2:])
    xy_min = np.maximum(boxes[:, :2], box[:2])
    inter = np.clip(xy_max-xy_min, a_min=0, a_max=np.inf)
    inter = inter[:, 0]*inter[:, 1]

    # 计算面积
    area_boxes = (boxes[:, 2]-boxes[:, 0])*(boxes[:, 3]-boxes[:, 1])
    area_box = (box[2]-box[0])*(box[3]-box[1])

    return inter/(area_box+area_boxes-inter)

对于这个函数我们不做过多解释,它实现一对多的计算。下面给出它的应用:

for track in tracks:
    box_iou = iou(track.tlbr, outputs[:,:4])
    maxindex  = np.argmax(box_iou)
    newoutput = np.append(outputs[maxindex], track.track_id)
    print(newoutput)

输出为:

[820.86      184.48      852.67      204.75     0.78067    2    2]
[766.21      212.08      808.44       246.9     0.73741    2    3]
[479.06       178.3      517.84      217.07     0.68729    2    4]
[508.42      147.98      529.87      165.88     0.62819    2    7]

每行的最后一个元素就是它的ID。

ByteTrack严重依赖于目标检测器的准确性。ByteTrack利用每个目标的得分值来计算目标跟踪,并赋予ID。我们一般都是把目标检测得到的置信值作为这个得分值传递给ByteTrack,作为其计算的依据。因此当置信值偏低,并且track_thresh偏高时,会出现tracks得到的目标少于outputs的目标,也就出现了有一些目标没有被赋予ID。

为了减少这类问题出现,我们可以人为的为目标置信值赋予更高的值(充分信任目标检测器),然后再传给ByteTrack,即

for output in outputs:
    output[4] = 0.95

应用ByteTrack进行目标跟踪的关键部分我们都解释清楚了,下面就给出完整的代码,在这里,我们仍然选择YOLOv8作为目标检测器,除了YOLO易于实现外,另一个原因是它的输出与ByteTrack所要求的数据输入的格式完全相同:

import numpy as np
import cv2
from ultralytics import YOLO
import sys
sys.path.append(f"D:/ByteTrack")
from yolox.tracker.byte_tracker import BYTETracker

class BYTETrackerArgs:
    track_thresh: float = 0.25   
    track_buffer: int = 30   
    match_thresh: float = 0.8   
    aspect_ratio_thresh: float = 3.0
    min_box_area: float = 1.0
    mot20: bool = False   
        

model = YOLO('yolov8l.pt')

cap = cv2.VideoCapture("D:/track/Highway Traffic.mp4")
fps = cap.get(cv2.CAP_PROP_FPS)
size = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)),int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)))
fNUMS = cap.get(cv2.CAP_PROP_FRAME_COUNT)
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
videoWriter = cv2.VideoWriter("D:/track/mytrack.mp4", fourcc, fps, size)

byte_tracker = BYTETracker(BYTETrackerArgs(),frame_rate= fps)

def box_label(image, box, label='', color=(128, 128, 128), txt_color=(255, 255, 255)):
    p1, p2 = (int(box[0]), int(box[1])), (int(box[2]), int(box[3]))
    cv2.rectangle(image, p1, p2, color, thickness=1, lineType=cv2.LINE_AA)
    if label:
        w, h = cv2.getTextSize(label, 0, fontScale=2 / 3, thickness=1)[0]  
        outside = p1[1] - h >= 3
        p2 = p1[0] + w, p1[1] - h - 3 if outside else p1[1] + h + 3
        cv2.rectangle(image, p1, p2, color, -1, cv2.LINE_AA)
        cv2.putText(image,
                label, (p1[0], p1[1] - 2 if outside else p1[1] + h + 2),
                0, 2/3, txt_color, thickness=1, lineType=cv2.LINE_AA)
        
def iou(box: np.ndarray, boxes: np.ndarray):
    xy_max = np.minimum(boxes[:, 2:], box[2:])
    xy_min = np.maximum(boxes[:, :2], box[:2])
    inter = np.clip(xy_max-xy_min, a_min=0, a_max=np.inf)
    inter = inter[:, 0]*inter[:, 1]

    area_boxes = (boxes[:, 2]-boxes[:, 0])*(boxes[:, 3]-boxes[:, 1])
    area_box = (box[2]-box[0])*(box[3]-box[1])

    return inter/(area_box+area_boxes-inter)

while cap.isOpened():
    success, frame = cap.read()
 
    if success:        
        results = model(frame,conf=0.5)
        
        outputs = results[0].boxes.data.cpu().numpy()
        
        if outputs is not None:
            for output in outputs:
                output[4] = 0.95
            
            tracks = byte_tracker.update(outputs[:,:5], img_info=frame.shape, img_size=frame.shape)
            
            for track in tracks:
                box_iou = iou(track.tlbr, outputs[:,:4])
                maxindex  = np.argmax(box_iou)
                
                if outputs[maxindex, 5] == 2:
                    box_label(frame, outputs[maxindex], '#'+str(track.track_id)+' car' , (167, 146, 11))
                elif outputs[maxindex, 5] == 5:
                    box_label(frame, outputs[maxindex], '#'+str(track.track_id)+' bus', (186, 55, 2))
                elif outputs[maxindex, 5] == 7:
                    box_label(frame, outputs[maxindex], '#'+str(track.track_id)+' truck', (19, 222, 24))
                                        
        cv2.putText(frame, "https://blog.csdn.net/zhaocj", (25, 50),
                cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)
      
        cv2.imshow("ByteTrack", frame)
        videoWriter.write(frame)
     
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
 
    else:
        break

cap.release()
videoWriter.release()
cv2.destroyAllWindows()

结果为:

ByteTrack

我们也可以再看一个示例:

people

  • 3
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
Jeson Nano是一款NVIDIA推出的边缘计算设备,搭载了高性能GPU。Yolo v5是一种目标检测算法,具备高准确率和实时性能。对于使用Jeson Nano部署Yolo v5实现目标检测,以下是一些步骤和说明: 首先,需要将Yolo v5的源代码克隆到Jeson Nano设备上。可以在GitHub上找到相应的代码库,并使用git命令进行克隆。 然后,需要下载预训练的权重文件。这些权重文件包含了已经在大型数据集上训练得到的模型参数。可以在Yolo v5的代码库中找到下载链接,并将权重文件保存到设备的合适位置。 接下来,需要安装Jeson Nano上的依赖软件包。这些软件包包括PyTorch、OpenCV和其他需要的库。可以使用pip命令安装这些软件包,确保安装的版本与Yolo v5兼容。 然后,需要通过命令行界面进入Yolo v5的源代码目录,并执行相应的命令来进行目标检测。可以使用预训练的权重文件进行推理,输出每个目标的边界框、置信度和类别。 最后,可以通过对输出进行后处理,例如筛选掉低置信度的目标、进行非极大值抑制等,来提高目标检测的准确性。 需要注意的是,Jeson Nano相比于更强大的设备,其计算能力和内存容量有限。因此,在部署Yolo v5时,可能需要调整模型的大小、选择合适的输入大小等,以适应Jeson Nano的硬件限制。 总之,使用Jeson Nano部署Yolo v5实现目标检测需要下载源代码、预训练权重文件,安装相关依赖软件包,并通过命令行界面进行推理。同时,还需要进行后处理来提高检测的准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值