C++使用onnxruntime/opencv对onnx模型进行推理(附代码)

0. onnx模型准备以及测试图

1. c++使用onnxruntime进行推理

结果:
在这里插入图片描述
current image classification : French bulldog, possible : 16.17

2. c++使用opencv进行推理

对两张图片同时进行推理

在这里插入图片描述
current image classification : French bulldog, possible : 16.17
在这里插入图片描述
current image class ification : hare, possible : 8.47

3. 完整代码

https://download.csdn.net/download/qq_44747572/87810859

4. c++调用tensorRT的模型

https://blog.csdn.net/qq_44747572/article/details/131631153

  • 28
    点赞
  • 157
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 17
    评论
ONNX Runtime是一个高性能的开源推理引擎,用于在各种硬件上执行机器学习模型。与OpenCV相比,ONNX Runtime具有更高的性能和更广泛的硬件支持。 要使用ONNX Runtime进行分割任务,您可以按照以下步骤操作: 1. 安装ONNX Runtime库:首先,您需要安装ONNX Runtime库。您可以通过在终端中运行适当的安装命令来完成此操作,具体取决于您使用的操作系统和硬件。 2. 加载和解析模型:在使用ONNX Runtime之前,您需要加载和解析分割模型。您可以使用ONNX Runtime的API来加载和解析ONNX模型文件。 3. 准备输入数据:在进行分割之前,您需要准备输入数据。通常,输入数据是图像,您可以使用常见的图像库(如PIL)或将图像读取为NumPy数组。 4. 运行推断:一旦加载模型并准备好输入数据,您可以使用ONNX Runtime的API来运行推断。这将对输入数据进行模型的前向传递,并生成分割结果。 5. 处理输出结果:最后,您可以根据需求处理和可视化分割的输出结果。您可以使用常见的图像处理库(如PIL)或将输出结果转换为NumPy数组进行后续处理和可视化。 总结来说,使用ONNX Runtime进行分割任务不需要使用OpenCV。您只需要加载和解析模型、准备输入数据、运行推断以及处理输出结果。ONNX Runtime提供了高性能和硬件支持,可以有效地执行机器学习模型,包括分割任务。
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

只搬烫手的砖

你的鼓励将是我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值