android中调用onnxruntime框架

创建空白项目

安装Android Studio及创建空白项目参考:【安卓Java原生开发学习记录】一、安卓开发环境的搭建与HelloWorld(详细图文解释)_安卓原生开发-CSDN博客

切记:build configuration language 一定选择Groovy!官方demo中就是选择的这个!

在Android上安装(JAVA/KOTLIN)

下载opencv Android sdk:Releases - OpenCV

点击file->new->Import Module选择解压之后的opencv-android-sdk文件夹中的SDk文件夹,并将:sdk修改为:opencv

修改build.gradle(opencv)

将 apply plugin: 'kotlin-android' 进行注释

添加 namespace "org.opencv"

修改 defaultConfig 里的版本

增加 buildFeatures

buildFeatures {
        aidl  true
        buildConfig  true
    }

buildFeatures放在buildTypes的前边。

应用 OpenCV 库到 APP 

点击file->project structure ->Dependencies->app->3 Module Dependency,然后给opencv打上对勾,应用即可

build.gradle(:app)添加onnx runtime的java库,

     // choose one of the two below:
     implementation 'com.microsoft.onnxruntime:onnxruntime-android:latest.release'  // full package
     //implementation 'com.microsoft.onnxruntime:onnxruntime-mobile:latest.release'  // mobile package

导入java包

代码中的一些注意事项

代码中加载opencv,根据需要在首次使用opencv的类中加载一次。

可能提示找不到对应的*so库,如使用的opencv 4.6.0 提示找不到“libopencv_java460.so”,通过everything发现该库下只有“libopencv_java4.so”,所以需要修改一下Core类

修改:

运行得到onnx模型的结果


参考:

【图文详解】Android Studio(新版本) 配置OpenCV库,解决出现的各种问题 - 知乎

  • 22
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
onnxruntime 是一个用于执行 ONNX 模型的高性能推理引擎,支持多种平台和硬件设备。下面是 onnxruntime 在 Python 的使用教程: 1. 安装 onnxruntime 可以使用 pip 命令来安装 onnxruntime: ``` pip install onnxruntime ``` 2. 加载 ONNX 模型 在使用 onnxruntime 执行推理之前,需要先加载 ONNX 模型。可以使用 `onnxruntime.InferenceSession` 类来加载模型: ```python import onnxruntime # 加载 ONNX 模型 session = onnxruntime.InferenceSession("model.onnx") ``` 其,`model.onnx` 是 ONNX 模型的文件路径。 3. 执行推理 加载完模型后,可以使用 `session.run` 方法来执行推理: ```python import numpy as np # 构造输入数据 input_data = np.array([[1, 2, 3, 4]], dtype=np.float32) # 执行推理 output = session.run(None, {"input": input_data}) # 输出结果 print(output) ``` 其,`session.run` 方法的第一个参数是输出的名称列表,可以为 `None`,也可以是一个字符串或字符串列表;第二个参数是一个字典,键为输入的名称,值为输入的数据。在上面的例子,输入的名称为 `input`。 4. 获取模型信息 使用 `session.get_inputs` 和 `session.get_outputs` 方法可以获取模型的输入和输出信息: ```python # 获取输入信息 input_info = session.get_inputs()[0] print(input_info) # 获取输出信息 output_info = session.get_outputs()[0] print(output_info) ``` 其,`input_info` 和 `output_info` 是 `onnxruntime.NodeArg` 类型的对象,包含了输入和输出的名称、形状、数据类型等信息。 5. 设置运行配置 可以使用 `onnxruntime.SessionOptions` 类来设置运行配置,例如使用 CPU 或 GPU 进行计算、设置线程数等: ```python import onnxruntime # 设置运行配置 options = onnxruntime.SessionOptions() options.intra_op_num_threads = 1 # 设置线程数为 1 options.execution_mode = onnxruntime.ExecutionMode.ORT_SEQUENTIAL # 设置为顺序模式 # 加载 ONNX 模型 session = onnxruntime.InferenceSession("model.onnx", options=options) ``` 6. 释放资源 使用完 onnxruntime 后,需要调用 `session.close` 方法来释放资源: ```python # 释放资源 session.close() ``` 以上就是 onnxruntime 在 Python 的使用教程,希望能对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值