yolov5训练的模型移植rt-thread并测试
- 将训练好的yolov5模型转换成tflite模型。
- 进入yolov5项目文件夹下,运行export.py文件。
python export.py --weights best.pt --include tflite
#--weight:权重文件地址
#--include:转换成哪种模型类型
export.py支持的转换类型
Format | `export.py --include` | Model
--- | --- | ---
PyTorch | - | yolov5s.pt
TorchScript | `torchscript` | yolov5s.torchscript
ONNX | `onnx` | yolov5s.onnx
OpenVINO | `openvino` | yolov5s_openvino_model/
TensorRT | `engine` | yolov5s.engineD
CoreML | `coreml` | yolov5s.mlmodel
TensorFlow SavedModel | `saved_model` | yolov5s_saved_model/
TensorFlow GraphDef | `pb` | yolov5s.pb
TensorFlow Lite | `tflite` | yolov5s.tflite
TensorFlow Edge TPU | `edgetpu` | yolov5s_edgetpu.tflite
TensorFlow.js | `tfjs` | yolov5s_web_model/
- 运行完后会生成best.tflite.
- 烧录rt-thread的源码。
- 打开rt-thread stdio 我们将进行基础配置更改。打开文件->新建rtthread项目.选择自己的工程目录和开发板(这里使用k210作为例子)。bsp版本务必选择1.0.4版本。
依次点击这两个按键。
点开mpy按如图所示配置。
再点击软件包-> 语言包->mrico python打开hardware的lcd其他配置如图所示
ctrl+s保存。打开rt-ak项目中的aitools文件并运行。
--project=C:\Users\Administrator\Desktop\rtthread\ipr --model=C:\Users\Administrator\Desktop\rtthread\best-fp16.tflite --model_name=robot --platform=k210 --dataset=C:\Users\Administrator\Desktop\rtthread\train
#--project:使用你创建的rtthread项目地址。
#--model使用你训练好的tflite模型
#--model_name:自己起一个模型名称
#--dataset:放入自己训练的数据集
回到rt-thread编译下载项目。
![在这里插入图片描述](https://img-blog.csdnimg.cn/f87f3279af3b4e99a6faddc7845b2643.png
3. 将我们训练好的tflite模型放到开发板上测试。打开vscode,我们先安装mirco python的插件。然后打开或者新建自己的测试文件。
编写自己的测试文件,连接开发板进行测试。
![在这里插入图片描述](https://img-blog.csdnimg.cn/2baafd6f93b74c348c5c31546b386b46.png