文章目录
Tensorflow lite不具备模型的训练功能,只能运行训练好的模型,所以他的核心就是一个模型的解释器(Interpreter)。
要用神经网络模型识别检测一个东西,需要四个要素:
- 需要一个神经网络模型(怎么导出tensorflow lite格式的模型?)
- 需要把这个神经网络模型运行起来(怎么构造解释器?)
- 需要准备输入数据(Java中怎么封装tensor格式的数据)
- 需要读取输出数据(如何获取输出的格式?怎么解析它?)
本文主要针对各种各样的输入数据:
1. 输入图片数据
比如有一个图像识别的模型,需要的输入数据格式为
type: `uint8[1,300,300,3]`
quantization: -1 ≤ 0.0078125 * (q - 128) ≤ 0.9921875
即整型数组[300*300],共三个通道RGB。
比如,我们现在有一张任意大小的图片(Bitmap:width=1920,height=1080)要放在模型里面去识别。
一般步骤是:
- 首先把图片裁剪加缩放到指定的大小(要保证图片不能拉伸,且裁剪时要保留最大的内容)。
- 然后把图片转换成tensorflowlite能读懂的类型
这里可以借助一个tensorflow lite support库,它可以帮助我们把安卓中的常见格式的图片转换成Tensor的格式输入给tf lite。
(1)导入依赖
dependencies {
// 导入tflite依赖库
implementation 'org.tensorflow:tensorflow-lite:2.3.0'
// 导入tflite support依赖库
implementation 'org