[C++]使用onnxruntime部署yolov8-cls图像分类onnx模型

如果只需要opencv去部署yolov8分类模型可以参考博文:https://blog.csdn.net/FL1623863129/article/details/142734780

本文和 opencv去部署yolov8分类模型区别是:opencv部署推理核心使用opencv自带api,而本文推理核心用的onnxruntime,opencv只是辅助作用即读取图片

【算法介绍】

C++使用ONNX Runtime部署YOLOv8-cls图像分类ONNX模型是一种高效的方法,能够充分利用硬件资源,实现低延迟、高效率的推理。

YOLOv8-cls是YOLO系列的最新版本之一,特别针对图像分类任务进行了优化。它继承了YOLO系列模型快速检测速度和较高准确率的特点,并通过改进网络架构和优化损失函数等策略,进一步提升了性能。

ONNX Runtime是一个跨平台的高性能推理引擎,支持多种机器学习框架导出的ONNX模型。ONNX(Open Neural Network Exchange)是一种开放标准,用于模型之间的互操作,使得开发者可以轻松地在不同框架之间迁移模型,而无需重新训练。

在C++中使用ONNX Runtime部署YOLOv8-cls模型,需要先将训练好的PyTorch模型转换为ONNX格式,然后利用ONNX Runtime的C++ API进行模型加载和推理。这包括设置环境、初始化会话、配置内存分配信息等步骤。推理过程中,需要将输入图像进行预处理,然后输入到模型中,最后获取并处理模型的输出。

这种方法具有高度的灵活性和可扩展性,可以适应不同的应用场景和硬件环境。同时,由于ONNX Runtime提供了高效的图优化和硬件加速功能,因此可以实现更快的推理速度和更好的性能表现。

总之,C++使用ONNX Runtime部署YOLOv8-cls图像分类ONNX模型是一种高效、灵活且可扩展的方法,适用于各种计算机视觉任务。

【效果展示】

【部分实现代码】

#pragma once
#include <iostream>
#include <opencv2/core.hpp>
#include <fstream>
#include "inference.h"
#include <chrono>


using namespace std;

int main(int argc, char *argv[])
{

    if (argc == 1)
    {
        std::cout << "Usage: main.exe <image_path>" << std::endl;
        return 0;
    }
    DL_INIT_PARAM params;
    params.labelPath = "class_names.txt";
    params.modelPath = "yolov8s-cls.onnx";
    params.modelType = YOLO_CLS_V8;
    params.imgSize = {224, 224};
    params.rectConfidenceThreshold = 0.4;
    params.iouThreshold = 0.0001;
    params.cudaEnable = false;

    auto starttime_1 = std::chrono::high_resolution_clock::now();
    std::unique_ptr<YOLO_V8> yolo(new YOLO_V8);
    yolo->CreateSession(params);
    auto starttime_3 = std::chrono::high_resolution_clock::now();
    auto duration_ms4 = std::chrono::duration_cast<std::chrono::milliseconds>(starttime_3 - starttime_1).count();
    std::cout << "[YOLO_V8]: warm up: " << duration_ms4 << "ms" << std::endl;
    std::string imagepath = argv[1];
    cv::Mat image = cv::imread(imagepath);
    auto starttime_2 = std::chrono::high_resolution_clock::now();
    auto results = yolo->Inference(image);
    auto starttime_4 = std::chrono::high_resolution_clock::now();
    auto duration_ms3 = std::chrono::duration_cast<std::chrono::milliseconds>(starttime_4 - starttime_2).count();
    std::cout << "[YOLO_V8]: inference time: " << duration_ms3 << " ms" << std::endl;
    for (const auto &result : results)
    {
        std::cout << "[YOLO_V8]: label is: " << result.className << ", confidence is: " << result.confidence << std::endl;
        std::string text = result.className + " " + std::to_string(result.confidence).substr(0, 4);
        cv::putText(image, text, cv::Point(10, 30), cv::FONT_HERSHEY_SIMPLEX, 1, cv::Scalar(0, 255, 0), 2);
    }

    return 0;
}

【测试环境】

vs2019

cmake==3.24.3

opencv==4.8.0

onnxruntime==1.12.0

【运行步骤】

通过cmake编译出exe后,执行

yolov8-cls.exe 【图片路径】即可

【完整源码下载】

https://download.csdn.net/download/FL1623863129/89853760

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FL1623863129

你的打赏是我写文章最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值