Android嵌入自己训练的yolov5模型(tfLite)交通标志

目录

第一步:下载模型与修改参数

第二步:标注数据

第三步:开始训练

第四步:yolov5转为tfLite模型

第五步:我们可以检测一下tfLite是否可用

第六步:下载官方的示例代码

第七步:修改代码

第八步:运行软件

第九步:优化速率


效果图

参考:【精选】手把手教你使用YOLOV5训练自己的目标检测模型-口罩检测-视频教程_yolov5训练模型_肆十二的博客-CSDN博客

模型下载地址:

YOLOV5-mask-42: 基于YOLOV5的口罩检测系统-提供教学视频 (gitee.com)

我采用的是将yolov5的模型,先转为tfLite的模型,再进行嵌入Android的方法

对于conda环境的创建,可以看最上面的参考,大佬已经很详细的讲解如何创建环境了

第一步:下载模型与修改参数

        下载好模型后,根据我们的需求,更改以下文件

        

train和val都为数据集图片的路径,数据集可以不用在项目里面,但是路径的格式最好为

改为我们自己的路径之后,将此处(nc)改为自己目标对象的格式,(names)且目标的命名

此处注意目标的排序很重要,必须记好

第二步:标注数据

        在命令行中输入

pip install labelImg   

安装好后,再输入

labelImg   

启动labelImg   

数据图片的位置就是

这里注意,在标注文件里面,会随着我们第一个标注的目标,自动生成class文件

随着我们的标注,也会出现对应的txt文件

而每一个txt都包含着这个图片的类别,和目标位置

而这个顺序正是我们在修改mask_data的时候,手动书写的目标顺序,这两个地方必须对应起来

在标注图片的时候,我们会发现,每次重新打开标注应用的时候,它不会识别我们自己的class文件,而是会重新帮我们创建,而顺序就是我们重新打开应用之后,标注的顺序,这样子会导致class文件内容被顶替,导致标注数据出现混乱,有时候会因为这个原因闪退,所以我们可以在labels文件夹中,提前创建好class文件,并且按照我们自定义的顺序去排列

然后在启动labelImg  的时候

输入

 Labelimg class_file E:\StudyData\python\TrafficData\labels\text\classes.txt  

这样子标注应用就会识别到你的class文件了

当我们标注好所有数据后,每张图片都会在labels对应着一个标注文件

等我们标注好我们自己的数据集后,就可以开始训练了

第三步:开始训练

找到train这个文件,找到这个位置的信息,这里示范的是yolov5m的预训练模型

这里的--data 注意别跟我一样写成mask_data2.yaml ,默认是mask_data.yaml

如果在GPU中跑,这里改为0

修改完这些东西后,就可以在命令行中输入

python train.py  --epoch 100 --batch-size 8

然后等待模型跑完由于如何跑模型,其他博主都已经出过相关的教程,这里简单的实现一下,具体详细细节可以参考别人的,这里主要分享一下我是如何转为tfLite成功实现yolov5模型的转换的

第四步:yolov5转为tfLite模型

当我们模型跑完后

可以看到在runs/train/exp*/weights/best.pt.这个文件,就是我们跑出来的结果;

可以在大佬写的window.py里面测试一下

然后直接运行

传入我们自己的数据

可以看到,模型已经成功跑出来了

接下来就是开始转换了

打开export.py

修改完成后,直接运行export

等待一会他的自动转换

转换成功了

可以看到已经生成了一个tfLite文件在我们的项目里面

第五步:我们可以检测一下tfLite是否可用

获取tflite模型的output数据细节

在命令行中输入python

这里可以看到,模型成功输入信息

 python

>>> import tensorflow as tf
>>> yolov5s = "runs/train/exp17/weights/best-fp16.tflite" 
>>> interpreter = tf.lite.Interpreter(model_path = yolov5s) 
>>> yolov5s = "runs/train/exp17/weights/best-fp16.tflite"
>>> interpreter = tf.lite.Interpreter(model_path = yolov5s)
>>> print(interpreter.get_output_details())

对应的还有以下命令

参考:4. tflite导出,模型细节_哔哩哔哩_bilibili

第六步:下载官方的示例代码

模型转换成功后,我们就可以对tfLite的嵌入了,这里我们可以下载这个案例

https://github.com/yyccR/yolov5-tflite-android
 

正确下载并导入android studio后

我们可以看到示例应用里已经有很多个模型,我们可以把自己的模型放在这里面

第七步:修改代码

点开这个coco_label.txt文件,我们可以看到在这里面是存放目标的地方

所以我们需要做的就是

1.添加模型

2.创建coco_label.txt文件

这里我直接创建一个coco_label2.txt,并将我们之前的class文件直接放入

下一步就是打开

修改模型

这里只是将默认的模型给修改了一下,具体的可以自己研究代码然后修改

这里我们回去查看一下我们的tfLite模型的输入信息

可以看到

我们需要的是640,640的图片大小;所以在项目中,我们还需要修改这里INPNUT_SIZE

修改前修改后

然后看一下

这里代表的是,OUTPUT_SIZE,所以我们还需要修改一下

然后修改一下label_file

第八步:运行软件

我们可以看到,已经成功运行了

第九步:优化速率

到这里已经成功的将yolov5的模型给嵌入app中了,但是速率还是有点慢

这里可以加上这段代码

可以看到,这样子就成功实现了

  • 16
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
对于将 YOLOv4-tiny 模型部署到 Android 平台,你可以使用 TensorFlow Lite 进行转换和部署。以下是一些步骤: 1. 首先,你需要将 YOLOv4-tiny 模型转换为 TensorFlow Lite 格式。你可以使用 TensorFlow 的转换工具,具体的转换步骤可以参考 TensorFlow 官方文档。确保在转换时将模型尺寸调整为适合 Android 设备的大小。 2. 接下来,你需要在 Android 项目中集成 TensorFlow Lite 库。你可以通过在 Gradle 文件中添加依赖项来实现,具体的步骤可以参考 TensorFlow Lite 官方文档。 3. 在你的 Android 项目中创建一个 `Interpreter` 对象,并加载之前转换后的 TensorFlow Lite 模型。 4. 准备输入数据。YOLOv4-tiny 模型通常需要图像数据作为输入。你可以使用 Android 的相机 API 或者从图库中选择图像来获取输入数据。 5. 对输入图像进行预处理,以满足模型的输入要求。这可能包括缩放、归一化和通道顺序调整等操作。 6. 将预处理后的图像数据传递给 TensorFlow Lite 模型的 `Interpreter` 对象进行推理。 7. 处理模型的输出结果。YOLOv4-tiny 模型通常会输出边界框坐标和类别标签。你可以根据输出结果绘制边界框或进行后续处理。 请注意,部署 YOLOv4-tiny 模型Android 平台可能需要一些手动的优化和调整,以确保在移动设备上能够获得良好的性能。这可能包括模型量化、使用 GPU 进行加速等技术。你可以参考 TensorFlow Lite 的文档和示例代码来获取更多详细信息和指导。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值