[C++]使用yolov10的onnx模型结合onnxruntime和bytetrack实现目标追踪

【官方框架地址】 

yolov10yolov10框架:https://github.com/THU-MIG/yolov10

bytetrack框架:https://github.com/ifzhang/ByteTrack

【算法介绍】

Yolov10与ByTetrack:目标追踪的强大组合

Yolov10和ByTetrack是两种在目标追踪领域具有显著影响力的技术。当它们结合使用时,可以显著提高目标追踪的准确性和实时性。

Yolov10是Yolov系列算法的最新版本,它在目标检测方面具有出色的性能。相较于之前的版本,Yolov10在精度和速度上都进行了优化,使其成为实时目标检测的理想选择。通过结合ByTetrack,Yolov10可以更有效地应用于目标追踪任务。

ByTetrack是一种基于轨迹匹配的目标追踪方法。它利用目标的运动信息和外观特征进行追踪,能够在复杂场景下实现稳定的目标追踪。ByTetrack的优势在于其强大的鲁棒性和适应性,即使在目标被遮挡或出现运动模糊的情况下,它仍能保持较高的追踪精度。

当Yolov10与ByTetrack结合使用时,Yolov5首先检测视频中的目标,并生成目标的初始位置和运动轨迹。然后,ByTetrack利用这些信息对目标进行精确追踪。这种结合方式既发挥了Yolov10的高检测精度,又利用了ByTetrack的高追踪精度,使得整体目标追踪效果显著提升。

综上所述,Yolov10与ByTetrack的结合为解决复杂场景下的目标追踪问题提供了新的解决方案。随着人工智能技术的不断进步,这种结合方式有望成为目标追踪领域的研究热点和发展趋势。通过进一步的研究和优化,我们可以期待这种组合在未来的目标追踪任务中发挥更大的潜力。

【效果展示】

【实现部分代码】

#include "YOlov10Manager.h"
#include <iostream>
#include <opencv2/opencv.hpp>
#include "BYTETracker.h"
#include <fstream>
#include <iomanip>
#include <time.h>
#include <chrono>
#include "util.h"
#include <map>
#include<vector>
#include<algorithm>



using namespace std;
using namespace cv;




void bytetrack_update(const std::vector<Detection>& res, std::vector<Object>& obj, const int& class_id ){
      for (size_t i = 0; i < res.size(); i++){
          try
            {
              if (res[i].class_id != class_id){ continue; }
              obj[i].label = res[i].class_id;
              obj[i].rect.x = res[i].bbox.x;
              obj[i].rect.y = res[i].bbox.y;
              obj[i].rect.height = res[i].bbox.height;
              obj[i].rect.width = res[i].bbox.width;
              obj[i].prob = res[i].confidence;
            }
          catch(const std::exception& e)
            {
              std::cerr << e.what() << '\n';
            }        
      }

};
int main(int argc, char const *argv[])
{

   std::map<int, std::vector<int>> object_id_list;
    const std::vector<std::string> classNames = util::loadNames("labels.txt");
    const int class_id = 2;//只想追踪的目标
    std::string model_path="yolov10n.onnx";
    Yolov10Manager detector(model_path);
    cv::Mat frame;
    std::vector <double> avg;
    cv::VideoCapture cap("car.mp4");
    std::chrono::time_point<std::chrono::high_resolution_clock>prev_frame_time(std::chrono::high_resolution_clock::now());
    std::chrono::time_point<std::chrono::high_resolution_clock>new_frame_time;
    int frame_width  =  cap.get(cv::CAP_PROP_FRAME_WIDTH);
    int frame_height =  cap.get(cv::CAP_PROP_FRAME_HEIGHT);
    int fpsvideo = cap.get(cv::CAP_PROP_FPS);
    cv::namedWindow("Camera", cv::WINDOW_NORMAL);
    BYTETracker tracker(fpsvideo, 30);

    while (cap.isOpened()) {
        cap >> frame;
        if (frame.empty())
        {
          break;
        }
        
        std::vector<Object> obj;
        auto results = detector.Inference(frame);
        const int num = results.size();
        obj.resize(num);
        bytetrack_update(results, obj, class_id);
        std::vector<STrack> output_stracks = tracker.update(obj);

      for (size_t i = 0; i < output_stracks.size(); i++){
          std::vector<float> tlwh = output_stracks[i].tlwh;
          cv::Scalar __color = tracker.get_color(output_stracks[i].track_id);
          cv::putText(frame, std::to_string(output_stracks[i].track_id), cv::Point(tlwh[0], tlwh[1] - 10), cv::FONT_ITALIC, 0.75, __color, 2);
          cv::rectangle(frame, cv::Rect(tlwh[0], tlwh[1], tlwh[2], tlwh[3]), __color, 2);    
      }


        //cv::imwrite("demo.jpg", frame);
        new_frame_time = std::chrono::high_resolution_clock::now();
        std::chrono::duration<double> duration1(new_frame_time - prev_frame_time);
        double fps = 1/duration1.count();
        
        avg.push_back(fps);


        std::cout <<"FPS: " << fps <<  std::endl;
        prev_frame_time = new_frame_time;

        cv::imshow("Camera", frame);
        if (cv::waitKey(1) == 27) {
          break;
        }


}

    cap.release();
    cv::destroyAllWindows();

    return 0;
}

【视频演示】
基于opencv和onnxruntime的C++版本yolov10-onnx和bytetrack追踪算法实现目标追踪_哔哩哔哩_bilibili测试环境:vs2019cmake==3.24.3opencv==4.7.0onnxruntime==1.12.0更多信息参考博文:, 视频播放量 2、弹幕量 0、点赞数 0、投硬币枚数 0、收藏人数 0、转发人数 0, 视频作者 未来自主研究中心, 作者简介 未来自主研究中心,相关视频:AI换脸真变态,绅士必备的一键启动包!,使用纯opencv部署yolov8目标检测模型onnx,基于yolov8+bytetrack实现目标追踪视频演示,易语言部署yolox的onnx模型,C语言、C++和C#的区别竟是这样,看完我瞬间懂了!,基于yolov8官方目标追踪botsort和bytetrack源码开发视频演示,基于C++版本yolov5-onnx和bytetrack追踪算法实现目标追踪,使用C++部署yolov8的onnx和bytetrack实现目标追踪,将yolov8封装成一个类几行代码完成语义分割任务,使用C#的winform部署yolov8的onnx实例分割模型icon-default.png?t=N7T8https://www.bilibili.com/video/BV1rZ421M77T/
【测试环境】
 opencv==4.7.0 onnxruntime==1.12.0 vs2019 cmake==3.24.3 

 【源码下载地址】

https://download.csdn.net/download/FL1623863129/89442051

  • 29
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ONNX Runtime是一个开源的深度学习推理库,可用于在多个平台上运行深度学习模型。要使用ONNX Runtime C读取YoloV8 ONNX模型,需要执行以下步骤: 1. 安装ONNX Runtime C库:首先,您需要在您的项目中安装ONNX Runtime C库。您可以在ONNX Runtime的官方GitHub页面上找到相关文档和指南,以了解如何安装和配置ONNX Runtime C库。 2. 下载YoloV8 ONNX模型:您需要从合适的来源(例如Darknet官方网站)下载YoloV8的ONNX模型文件。 3. 加载ONNX模型使用ONNX Runtime C库中的函数,您可以加载已下载的YoloV8 ONNX模型。此过程将创建一个ONNX模型实例,该实例包含了模型的结构和权重。 4. 配置和运行模型使用ONNX Runtime C库中提供的功能,您可以配置模型的输入和输出参数。在此步骤中,您将定义输入张量(如图像)的形状和数据类型,并创建输出张量以存储模型的预测结果。 5. 输入数据:将待处理的图像数据加载到输入张量中。确保输入数据与模型所需的形状和数据类型相匹配。 6. 运行模型使用ONNX Runtime C库中的函数,您可以运行加载的YoloV8 ONNX模型,将输入张量传递给模型,并获得输出张量。 7. 处理输出结果:根据YoloV8模型的输出,您可以解析和处理返回的输出张量,以获得所需的对象检测结果。 通过遵循上述步骤,您可以使用ONNX Runtime C库读取YoloV8 ONNX模型,并进行对象检测。请记住,具体的实现细节可能会因您选择的开发环境和工具而有所不同,建议阅读ONNX Runtime C库的官方文档,以了解更多细节和示例代码。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FL1623863129

你的打赏是我写文章最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值