【模型部署】使用OpenCV C++ API转换PyTorch分类模型并推理

15 篇文章 4 订阅
6 篇文章 0 订阅

1、将PyTorch分类模型转换为ONNX格式

使用pytorch的torch.onnx.export()接口将模型转换为onnx格式。

下例以resnet50为例进行演示。

import os
import torch
import torch.onnx
from torch.autograd import Variable
from torchvision.models import resnet50, ResNet50_Weights

def get_pytorch_onnx_model(original_model):
    # define the directory for further converted model save
    onnx_model_path = "models"
    # define the name of further converted model
    onnx_model_name = "resnet50.onnx"

    # create directory for further converted model
    os.makedirs(onnx_model_path, exist_ok=True)

    # get full path to the converted model
    full_model_path = os.path.join(onnx_model_path, onnx_model_name)

    # generate model input
    generated_input = Variable(
        torch.randn(1, 3, 224, 224)
    )

    # model export into ONNX format
    torch.onnx.export(
        original_model,  # 需转换的原始模型
        generated_input,  # 模型的输入维度尺寸
        full_model_path,  # onnx模型文件生成路径
        verbose=True,  # 是否打印相关转换日志
        input_names=["input"],  # 按顺序分配给onnx图的输入节点的名称列表。
        output_names=["output"],  # 按顺序分配给onnx图的输出节点的名称列表。
        opset_version=11   
    )

    return full_model_path


def main():
    # initialize PyTorch ResNet-50 model
    Weight = ResNet50_Weights.DEFAULT
    original_model = resnet50(weights=Weight)
    # get the path to the converted into ONNX PyTorch model
    full_model_path = get_pytorch_onnx_model(original_model)
    print("PyTorch ResNet-50 model was successfully converted: ", full_model_path)

if __name__ == "__main__":
    main()

2、使用OpenCV C/C++API运行转换后的PyTorch模型

使用opencv提供的cv::dnn::readNet()cv::dnn::readNetFromONNX()函数接口读取加载onnx模型,并设置模型计算的后端与目标计算设备。

std::string onnx_file_path = "./models/resnet50.onnx";
Net net = readNetFromONNX(onnx_file_path); // 加载onnx模型
net.setPreferableBackend(0); // 选择计算后端,此处选择的默认0:automatically
net.setPreferableTarget(0);  // 选择目标计算设备,此处选择的模型0:CPU target

3、模型推理

首先对图片数据进行预处理,使其符合网络的输入标准,然后cv::dnn::Net::setInput()cv::dnn::Net::forward()实现模型的前向推理运算。

int init_width = 256;
int init_height = 256;

cv::Mat mat = cv::imread(image_path, -1);
// cv::cvtColor(mat, mat, cv::COLOR_BGR2RGB);
cv::Mat blod;

cv::resize(mat, mat, cv::Size(init_width, init_height));  // resize图片大小;
double scale = 1.0;  // 图片缩放因子
cv::Scalar mean = (123.675, 116.28, 103.53);  // 均值


// blobFromImage()函数可将图片对象转换成网络模型的输入张量(tensor)
blobFromImage(mat, // image-原始image,
              blod,  // blob-输出张量
              scale,  // scale-缩放因子
              cv::Size(224, 224),  // size-图片张量大小 
              mean,  // mean-所减均值, 如果图像具有BGR排序并且swapRB为真,则mean值应按(均值-R、均值-G、均值-B)顺序排列。
              true,  // swapRB-是否交换R与B通道
              false,  // crop-是否从中心裁剪调整图像
              CV_32F  // ddepth-输出blob的深度。选择CV_32F或CV_8U。
              );  

cv::TickMeter timeRecorder;  // 计时器
timeRecorder.reset();  // 重置计时器

net.setInput(blod);  // 将图片张量输入到网络模型

timeRecorder.start();  // 开始计时
cv::Mat pred = net.forward();  // 执行模型前向计算(模型推理)
timeRecorder.stop();  // 结束及时

double t = timeRecorder.getAvgTimeMilli();  // 返回平均时间(以毫秒为单位)

cv::Mat softmaxPred; 
softmax(pred, softmaxPred);  // 执行softmax()归一化操作,函数实现在下面的完整代码中给出

cv::Point classIdPoint;  
double confidence;

// Mat cv::Mat::reshape(int cn, int rows=0) const; 函数不仅可以改变通道数,还可以改变数组序列形状。
cv::minMaxLoc(softmaxPred.reshape(1, 1), 0, &confidence, 0, &classIdPoint);  // 获取最高的置信度及其索引
int classId = classIdPoint.x; //获取类别ID

std::cout << "The max confidence is:" << confidence << '\n' << "Its classId is:" << classId << std::endl;
// std::cout << "Inference is end!" << std::endl;

//在图片上打印推理时间、置信度与列别ID
std::string label_ms = cv::format("Inference time of 1 round: %.2f ms", t);
cv::putText(mat, label_ms, cv::Point(0, 15), cv::FONT_HERSHEY_SIMPLEX, 0.4, cv::Scalar(0, 255, 0));

std::string label_infer = cv::format("%s: %.4f", cv::format("Class #%d", classId).c_str(), confidence);
cv::putText(mat, label_infer, cv::Point(0, 25), cv::FONT_HERSHEY_SIMPLEX, 0.4, cv::Scalar(0, 255, 0));

std::string WinName = "Deep learning image classification in OpenCV!";
cv::namedWindow(WinName, cv::WINDOW_FULLSCREEN);
cv::imshow(WinName, mat);
cv::waitKey();

使用opencv C++ API运行onnx模型以及推理运算的完整代码如下

#include <opencv2/opencv.hpp>
#include <opencv2/dnn.hpp>

using namespace cv::dnn;

void softmax(cv::Mat& prob, cv::Mat& softmaxProb) {
	float maxProb = 0.0;
	float sum = 0.0;

	maxProb = *std::max_element(prob.begin<float>(), prob.end<float>());
	cv::exp(prob - maxProb, softmaxProb);
	sum = (float)cv::sum(softmaxProb)[0];
	softmaxProb /= sum;
}

int main(int argc, char argv[]) {
	std::string onnx_file_path = "E:/CS/opencv/Opencv_DNN_accelerate_optimization/pytorch2opencv/models/resnet50.onnx";
	std::string image_path = "E:/CS/opencv/Opencv_DNN_accelerate_optimization/pytorch2opencv/imgs/cat.jpg";
	Net net = readNetFromONNX(onnx_file_path);
	net.setPreferableBackend(0);
	net.setPreferableTarget(0);

	int init_width = 256;
	int init_height = 256;

	cv::Mat mat = cv::imread(image_path, -1);
	// cv::cvtColor(mat, mat, cv::COLOR_BGR2RGB);
	cv::Mat blod;
	cv::resize(mat, mat, cv::Size(init_width, init_height));
	double scale = 1.0;
	cv::Scalar mean = (123.675, 116.28, 103.53);
	blobFromImage(mat, blod, scale, cv::Size(224, 224), mean, true, false);

	cv::TickMeter timeRecorder;
	timeRecorder.reset();

	net.setInput(blod);

	timeRecorder.start();
	cv::Mat pred = net.forward();
	timeRecorder.stop();

	double t = timeRecorder.getAvgTimeMilli();
	cv::Mat softmaxPred;
	softmax(pred, softmaxPred);

	cv::Point classIdPoint;
	double confidence;
	cv::minMaxLoc(softmaxPred.reshape(1, 1), 0, &confidence, 0, &classIdPoint);
	int classId = classIdPoint.x;

	std::cout << "The max confidence is:" << confidence << '\n' << "Its classId is:" << classId << std::endl;
	std::cout << "Inference is end!" << std::endl;

	std::string label_ms = cv::format("Inference time of 1 round: %.2f ms", t);
	cv::putText(mat, label_ms, cv::Point(0, 15), cv::FONT_HERSHEY_SIMPLEX, 0.4, cv::Scalar(0, 255, 0));

	std::string label = cv::format("%s: %.4f", cv::format("Class #%d", classId).c_str(), confidence);
	cv::putText(mat, label, cv::Point(0, 25), cv::FONT_HERSHEY_SIMPLEX, 0.4, cv::Scalar(0, 255, 0));

	std::string WinName = "Deep learning image classification in OpenCV!";
	cv::namedWindow(WinName, cv::WINDOW_FULLSCREEN);
	cv::imshow(WinName, mat);
	cv::waitKey();
	return 0;
}

运行输出

在这里插入图片描述
在这里插入图片描述

参考链接OpenCV: Conversion of PyTorch Classification Models and Launch with OpenCV C++

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: 要在C语言中部署YoloV5模型,可以使用以下步骤: 1. 安装C语言的深度学习库,例如Darknet或者ncnn。 2. 下载训练好的YoloV5模型权重文件(.pt文件)和模型配置文件(.yaml文件)。 3. 将下载的权重文件和配置文件移动到C语言深度学习库中指定的目录下。 4. 在C语言中编写代码,使用深度学习库加载YoloV5模型,输入待检测的图像,输出检测结果。 需要注意的是,在使用YoloV5模型进行推理时,需要将输入图像进行预处理,例如将图像缩放到指定大小,并且将像素值转换模型所需的数据类型。同时,也需要将模型输出的检测结果进行后处理,例如将边界框坐标转换为图像坐标,并去除重叠的检测框。 ### 回答2: 要在C中部署Yolov5模型,可以按照以下步骤进行: 首先,确保你已经成功编译了C语言环境,并已安装了必要的开发工具和库。 1. 下载Yolov5模型的代码库和权重文件。可以从GitHub上的ultralytics/yolov5仓库下载https://github.com/ultralytics/yolov5。 2. 在C项目中创建一个文件夹,用于存放相关文件。 3. 将Yolov5模型的代码库文件拷贝到你的C项目文件夹中。 4. 在你的C代码中,导入相关的头文件并编写对应的函数调用代码。这些头文件包括一些必要的包含YOLOv5模型定义的头文件。 5. 将YOLOv5的权重文件(例如"yolov5s.pt")拷贝到C项目文件夹中。 6. 在你的C代码中,编写加载模型和权重的代码。这可以通过调用相应的函数并传递模型和权重文件的路径来完成。 7. 编译你的C项目,并确保所有的依赖项都正确配置。 8. 运行你的C程序,验证是否能够成功部署Yolov5模型。你可以通过输入图像并观察输出结果来进行验证。 通过按照以上步骤,你就能够在C中成功部署Yolov5模型了。当然,在实际项目中,还可能需要根据具体的需求进行一些更详细和复杂的配置,但以上步骤可以作为基本的指导供你参考。 ### 回答3: 要使用C语言部署Yolov5模型,我们需要使用C语言的深度学习库来加载模型并进行推理。以下是一个简单的步骤: 1. 首先,我们需要安装合适的深度学习库,如TensorFlow或PyTorch,用于加载和推理Yolov5模型。这些库提供了C语言的接口,让我们能够在C中调用深度学习功能。 2. 通过使用上述深度学习库的预训练模型加载器,我们可以将Yolov5模型加载到C中。 3. 加载模型后,我们可以使用C语言提供的图像处理库,如OpenCV,读取输入图像,并将其转换模型可接受的格式。这可能包括调整图像大小、归一化像素值等。 4. 接下来,我们将读取的图像传递给已加载的Yolov5模型进行推理。通过调用模型推理函数,我们可以获取在图像中检测到的对象、其位置以及其对应的置信度。 5. 最后,我们可以使用C语言提供的绘图库或图像处理库,如OpenCV,将检测到的对象以及其信息绘制在图像上或进行其他处理。 总的来说,要用C语言部署Yolov5模型,我们需要使用深度学习库加载模型并进行推理使用图像处理库处理输入图像,并使用绘图库将检测结果显示在图像上。这个过程需要一定的编程和计算机视觉知识,以及对C语言和深度学习库的熟悉。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

卖报的大地主

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值