运行tensorflow lite官方的目标检测demo

demo地址:https://github.com/tensorflow/examples/tree/master/lite/examples/object_detection/android

环境要求:
Android Studio
官方说的是3.2 以上,我的旧AS版本是3.5也不行,所以更新到了当前最新的稳定版。

图片替换文本

更新完了gradle同步时报错,需要再次设置JDK和NDK的path,打开project manager,找到自己的JDK和NDK目录进行配置。

图片替换文本 图片替换文本

如果没有安装NDK,打开SDK Manager安装
图片替换文本

Run App
安装App时,要先下载一个目标检测的tflite模型,如果长时间没有响应,可以先自行下载

  • 在app文件夹下的download_model.gradle中找到下载地址
  • 下载完成后拷贝到assets中,并重命名为“detect.tflite
  • 在app文件夹下build.gradle找到apply from:'download_model.gradle',注释掉
    图片替换文本

运行效果

图片替换文本
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
XNNPACK是Facebook开发的一个高效的神经网络计算库,可以加速许多神经网络模型的推理。同时,TensorFlow Lite是一个轻量级的机器学习库,可以在移动设备等资源有限的环境中运行。为了更好地利用硬件资源,我们可以使用XNNPACK来加速TensorFlow Lite模型的推理。以下是使用XNNPACK委托运行TensorFlow Lite模型的步骤: 1. 导入相关库 ```python import tensorflow as tf from tensorflow.lite.python.interpreter import Interpreter from tensorflow.lite.python.interpreter import load_delegate ``` 2. 加载模型 ```python interpreter = Interpreter(model_path="your_tflite_model.tflite") interpreter.allocate_tensors() ``` 3. 加载XNNPACK委托 ```python delegate = load_delegate('libnpx.so') interpreter = Interpreter(model_path="your_tflite_model.tflite", experimental_delegates=[delegate]) interpreter.allocate_tensors() ``` 4. 运行模型 ```python input_details = interpreter.get_input_details() output_details = interpreter.get_output_details() # 假设输入是一个形状为(1, 224, 224, 3)的图像 input_data = np.random.rand(1, 224, 224, 3).astype(np.float32) interpreter.set_tensor(input_details[0]['index'], input_data) interpreter.invoke() output_data = interpreter.get_tensor(output_details[0]['index']) ``` 这样,我们就可以使用XNNPACK委托运行TensorFlow Lite模型了。使用XNNPACK可以显著提高模型推理的速度,并且在移动设备等资源有限的环境中特别有用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值