通过onnxruntime进行模型部署过程中的问题

1.onnxruntime包

从https://github.com/microsoft/onnxruntime/releases/下载解压到D:/code/package/onnruntime

2opencv_c++下载https://github.com/opencv/opencv/releases/tag/4.8.1

3.测试opencv代码:总结:添加include目录,添加lib库目录,链接器输入添加*.lib库文件,且debug/release项目与编译器设置相同。

#include <opencv2/core.hpp>
#include <opencv2/highgui.hpp>
using namespace cv;
int main(int argc, char* argv[]) 
{

    std::string image_path = "./ai.png";
    Mat img = imread(image_path, IMREAD_COLOR);

    imshow("Display window", img);
    int k = waitKey(0); // Wait for a keystroke in the window
    return 0;
}

在属性中添加include目录后提示LNK2019    无法解析的外部符号 "void __cdecl cv::error(int,class std::basic_string<char,struct std::char_traits<char>,class std::allocator<char> > const &,char const *,char const *,int)" (?error@cv@@YAXHAEBV?$basic_string@DU?$
......

测试,使用vs2019创建一个cpp文件include<onnxruntime_cxx_api.h>找不到头文件。

3.LNK2019    无法解析的外部符号 "void __cdecl cv::error(int,class std::basic_string<char,struct std::char_traits<char>,RMatSize@cv@@QEBA?e_@H@1@XZ) 之类的提示

解决:添加库目录D:\code\package\opencv_cxx\build\x64\vc16\lib;

在链接器输入-附加依赖项中添加open_word481d.lib,名称根据实际文件夹中的改。再次运行可解决

注意,我的文件夹中有opencv_world481.lib;和opencv_world481d.lib;两个文件。我设置的debug模式,则只能添加*481d.lib文件,Release模式添加*481.lib文件,不可同时添加,否则opencv的imread依然内存报错,读取的图片为空

4.若提示opencv_word481.dll找不到,则将D:\code\package\opencv_cxx\build\x64\vc16\bin加入环境变量path,重启vs2019即可

5.解决:找不到头文件:右键项目名称-属性-添加执行文件目录,并且红框的内容应该一致,如都是Release 和x86,并添加include目录

6.0x00007FF87AD2CF19 处(位于 Project1.exe 中)有未经处理的异常: Microsoft C++ 异常: cv::Exception,位于内存位置 0x000000BC9A0FECD0 处。是由于c++中文件路径要用\\,而不能用/。还有问题则可能是附加依赖项的问题,debug模式只添加481.lib.不能同时添加两个

7.若运行时依然报错:程序无法正常启动(0x0007b):看看是不是32位和64的影响:

解决:运行程序输出已加载:C:\system32\cruntime.dll知道vs正用的32位工具,所以把编译器第二行改为release/x86,项目右击的属性改为release/win32。

8。若还是报错,都改为debug试试,把onnxruntime_providers_shared.dll和onnxruntime.dll动态链接库文件复制到debug/release文件夹,即放在项目名.exe所在文件夹内,这是必须的

9.运行程序报错提示缺少mfc组件:勾选适用于最新v142生成工具的c++MFC工具安装

10.又是有时无法解析符号可能是因为,若主函数为main则为控制台程序,为winmain则是窗口程序,在链接器-系统-子系统中选择对应的才行。

10.使用后cmake 编译CMakeLists.txt时,提示:

  Generator NMake Makefiles does not support platform specification, but platform    x64,CMake Error: CMAKE_C_COMPILER not set, after EnableLanguage
CMake Error: CMAKE_CXX_COMPILER not set, after EnableLanguage

则是由于未安装visual studio编译器,或则安装了但是没把vs文件夹中的cl.exe所在目录加入环境变量。

11.stm32cubemx生成的makefile文件,编译器cc改为g++报错undefined reference to `_getpid'未定义。

解决:更改LDFLASHGS

问题解决
解决方法:
吧LDFLAGS里的-specs=nano.specs改为-specs=nosys.specs

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLOv8是一个目标检测算法,而ONNX Runtime是一种用于高效运行ONNX模型的开源引擎。在这里,我们讨论如何使用ONNX Runtime C API来部署YOLOv8模型。 首先,我们需要将YOLOv8模型转换为ONNX格式。可以使用工具如torch.onnx.export将PyTorch模型转换为ONNX模型,或者使用其他可用的转换工具。确保转换后的模型与所选的ONNX Runtime版本兼容。 接下来,我们需要在C环境使用ONNX Runtime来加载和运行模型。首先,我们需要包含ONNX Runtime的头文件,并链接相应的库文件。 然后,我们可以通过以下步骤来加载和运行YOLOv8 ONNX模型: 1. 创建一个ONNX Runtime的会话(session)对象。 2. 使用会话对象读取ONNX模型文件,并将其加载到内存。 3. 获取输入和输出的名称和维度。通过查询模型的输入和输出节点的信息,我们可以获得它们的名称和维度信息。 4. 创建用于存储输入和输出数据的缓冲区。我们可以使用ONNX Runtime提供的API来创建和管理这些缓冲区。 5. 将实际输入数据填充到输入缓冲区。根据模型的输入维度和数据类型,我们可以将输入数据复制到输入缓冲区。 6. 使用会话对象运行模型。通过调用ONNX Runtime的API函数,我们可以将输入缓冲区传递给模型,并获取输出缓冲区的结果。 7. 从输出缓冲区获取模型的预测结果。根据模型输出的维度和数据类型,我们可以从输出缓冲区获取预测结果。 8. 对预测结果进行后处理和解码,以获得最终的目标检测结果。 通过以上步骤,我们就可以使用ONNX Runtime C API来部署YOLOv8模型。这种部署方式可以在嵌入式系统或其他资源有限的环境使用,以实现高效的目标检测功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值