如果想把TensorflowLite模型在手机端部署,需要把模型转换成为Metadata 格式。
代码如下:
from tflite_support.metadata_writers import image_classifier
from tflite_support.metadata_writers import writer_utils
# 这里的label 一定要注意 如果是regression 问题 一定要把label 改成一行
ImageClassifierWriter = image_classifier.MetadataWriter
model_path ="已经训练好的模型.tflite"
label_file = "labels.txt"# 模型输出对应标签
save_path ="metadata_V1.tflite"
input_norm_mean = 0
input_norm_std = 255
writer = ImageClassifierWriter.create_for_inference(
writer_utils.load_file(model_path),
[input_norm_mean],
[input_norm_std],
[label_file])
print(writer.get_metadata_json())
writer_utils.save_file(writer.populate(),save_path)
其中,注意事项
(1)input_norm_mean,input_norm_std 根据训练图片的归一化方式更改
原始公式为 (读取的图片像素【0,255】-input_norm_mean)/input_norm_std
(2)labels.txt
如果是regression 模型,就在lable.txt 随便写一个数字就行,只是为了编译通过,我们不会实际使用。
如果是具体类别,lable.txt 可以是
类别1(实际类别名字,一行写一个,前面不需要标号)
类别2
类别3