PaddlePaddle学习之使用PaddleDetection在树莓派4B进行模型部署(三)--- 树莓派4B部署

PaddlePaddle学习之使用PaddleDetection在树莓派4B进行模型部署(一)— 项目环境搭建
PaddlePaddle学习之使用PaddleDetection在树莓派4B进行模型部署(二)— 深度学习模型训练
PaddlePaddle学习之使用PaddleDetection在树莓派4B进行模型部署(三)— 树莓派4B部署

此项目已公开,包括数据集在内已经打包上传,欢迎Fork!传送门:Paddle_ssd_mobilenet_v1_pascalvoc

本文将使用ssd_mobilenet_v1_voc算法,以一个例子为说明如何利用paddleDetection完成一个项目----从准备数据集到完成树莓派部署,项目用到的工具是百度的AI Studio在线AI开发平台和树莓派4B
全部资料已经都打包在这里(PaddleDetection、Paddle-Lite-Demo、Paddle-Lite、opt)
链接:https://pan.baidu.com/s/1IKT-ByVN9BaVxfqQC1VaMw
提取码:mdd1

预测库编译

Paddle-Lite目前支持三种编译的环境:

  1. Docker 容器环境
  2. Linux(推荐 Ubuntu 16.04)环境
  3. Mac OS 环境

本次项目仅涉及到树莓派的ARMLinux环境编译,其他编译环境请参考Paddle-Lite官方文档

编译环境要求
gcc、g++、git、make、wget、python
cmake(建议使用3.10或以上版本)
官方安装流程如下:

# 1. Install basic software
apt update
apt-get install -y --no-install-recommends \
  gcc g++ make wget python unzip

# 2. install cmake 3.10 or above
wget https://www.cmake.org/files/v3.10/cmake-3.10.3.tar.gz
tar -zxvf cmake-3.10.3.tar.gz
cd cmake-3.10.3
./configure
make
sudo make install

此环境树莓派应该是会有的,可以自行检查,没有的包安装上即可。
至此完成所有的编译环境配置。
将 Paddle-Lite 和 Paddle-Lite-Demo 移动至树莓派中,放在自己方便的目录下即可,在这里我的 Paddle-Lite 放在了 /home/pi/ 下,将 Paddle-Lite-Demo 放在了 /home/pi/Desktop/ 下,并且将 /home/pi/Paddle/Paddle-Lite/lite/tools/build.sh 加上执行权限
在这里插入图片描述
所有工作完成后,即可开始编译Paddle-Lite

cd /home/pi/Paddle/Paddle-Lite
sudo ./lite/tools/build.sh \
  --build_extra=OFF \
  --arm_os=armlinux \
  --arm_abi=armv7hf \
  --arm_lang=gcc \
  tiny_publish

虽然树莓派4B已经是 ARMv8 的CPU架构,但官方系统为32位,还是需要使用ARMv7架构的编译方式
在这里插入图片描述
编译结束,结果如下:
在这里插入图片描述

文件结构搭建

整体文件结构如下:

 object_detection_demo
        
  		Paddle-Lite:	
				include (编译好的Paddle—Lite的头文件)
				libs(存放armv7hf)
		                armv7hf(编译好的Paddle—Lite的库文件)
  		code:
				models(模型文件:model.nb)
				images(测试图片)
				CMakeLists.txt
				mask_detection.cc
				run.sh
  1. 打开 /home/pi/Desktop/Paddle-Lite-Demo/PaddleLite-armlinux-demo/object_detection_demo 文件夹,在此目录下新建 Paddle-Lite、code 文件夹
  2. Paddle-Lite文件夹下新建 include、libs 文件夹
  3. libs文件夹下新建 armv7hf 文件夹
  4. 将 images、labels、CMakeLists.txt、run.sh、object_detection_demo.cc 文件移入 code 文件夹下

对于 Paddle-Lite 的编译结果,我们需要使用的东西在 /home/pi/Paddle/Paddle-Lite/build.lite.armlinux.armv7hf.gcc/inference_lite_lib.armlinux.armv7hf/cxx 文件夹下
在这里插入图片描述

将 include 和 lib 中的头文件和库文件提取出来,分别放入 include 和 armv7hf 文件夹中
至此已做好文件结构的搭建

模型部署

接下来就是最后一步了,将模型放进文件中,稍作修改就大功告成了!

  1. 进入 code 文件夹
  2. 修改 labels 文件夹下的 pascalvoc_label_list ,内容必须与训练时的 label_list.txt 文件内容一致 (注意 pascalvoc_label_list 是纯文本文档,不是 .txt 文本文档,弄错了预测出来的框选标签会打 unknow 的!)
  3. 将在PaddlePaddle学习之使用PaddleDetection在树莓派4B进行模型部署(二)----- 深度学习模型训练得到的 model.nb 放进 models 文件夹
  4. 打开 run.sh 文件,注释掉第四行的 TARGET_ARCH_ABI=armv8 ,打开第五行的,取消第5行 TARGET_ARCH_ABI=armv7hf 的注释
  5. 修改第六行的 PADDLE_LITE_DIR 索引到文件中Paddle-Lite目录
  6. 修改第十九行的model文件的模型索引目录和预测图片的索引目录
#!/bin/bash

# configure
#TARGET_ARCH_ABI=armv8 # for RK3399, set to default arch abi
TARGET_ARCH_ABI=armv7hf # for Raspberry Pi 3B
PADDLE_LITE_DIR=/home/pi/Desktop/Paddle-Lite-Demo/PaddleLite-armlinux-demo/object_detection_demo/Paddle-Lite
if [ "x$1" != "x" ]; then
    TARGET_ARCH_ABI=$1
fi

# build
rm -rf build
mkdir build
cd build
cmake -DPADDLE_LITE_DIR=${PADDLE_LITE_DIR} -DTARGET_ARCH_ABI=${TARGET_ARCH_ABI} ..
make

#run
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:${PADDLE_LITE_DIR}/libs/${TARGET_ARCH_ABI} ./object_detection_demo ../models/model.nb ../labels/pascalvoc_label_list ../images/2001.jpg ./result.jpg

修改完run.sh文件后,就算是完成了所有的配置内容,可以开始放心的 RUN 了!!

/home/pi/Desktop/Paddle-Lite-Demo/PaddleLite-armlinux-demo/object_detection_demo/code
sudo ./run.sh

最后的输出结果如下:
在这里插入图片描述
图片的预测结果就是这样了,虽然一个类别只有300张图,但是总的来说结果还算不错!
在这里插入图片描述
关于视频流的实时监测,在源代码的主函数中可以看到

  if (argc > 3) {
    WARMUP_COUNT = 1;
    REPEAT_COUNT = 5;
    std::string input_image_path = argv[3];
    std::string output_image_path = argv[4];
    cv::Mat input_image = cv::imread(input_image_path);
    cv::Mat output_image = process(input_image, word_labels, predictor);
    cv::imwrite(output_image_path, output_image);
    cv::imshow("Object Detection Demo", output_image);
    cv::waitKey(0);
  } else {
    cv::VideoCapture cap(-1);
    cap.set(cv::CAP_PROP_FRAME_WIDTH, 640);
    cap.set(cv::CAP_PROP_FRAME_HEIGHT, 480);
    if (!cap.isOpened()) {
      return -1;
    }
    while (1) {
      cv::Mat input_image;
      cap >> input_image;
      cv::Mat output_image = process(input_image, word_labels, predictor);
      cv::imshow("Object Detection Demo", output_image);
      if (cv::waitKey(1) == char('q')) {
        break;
      }
    }
    cap.release();
    cv::destroyAllWindows();
  }

当我们在 run.sh 文件中设置小于三个参数时,即可使用视频流实时监测

#run
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:${PADDLE_LITE_DIR}/libs/${TARGET_ARCH_ABI} ./object_detection_demo ../models/ssd_mobilenet_v1_pascalvoc_for_cpu/best.nb ../labels/pascalvoc_label_list 
#../images/2.jpg ./result.jpg

在这里注释掉图片路径和输出路径即可
在这里插入图片描述

:如果有用 Opencv-4.1.0 版本的,可能在编译 object_detection_demo.cc 时在 267、268 行会报错
源代码如下:

    cap.set(CV_CAP_PROP_FRAME_WIDTH, 640);
    cap.set(CV_CAP_PROP_FRAME_HEIGHT, 480);

cap.set(CV_CAP_PROP_FRAME_WIDTH, 640); cap.set(CV_CAP_PROP_FRAME_HEIGHT, 480);
由于新版本的API发生了变化。需要修改为如下代码:

    cap.set(cv::CAP_PROP_FRAME_WIDTH, 640);
    cap.set(cv::CAP_PROP_FRAME_HEIGHT, 480);

参考资料

Paddle-Lite官方文档

  • 7
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 35
    评论
将 YOLOv5 训练好的模型部署到树莓派需要以下步骤: 1. 安装必要的依赖项和软件包:首先,您需要在树莓派上安装必要的依赖项和软件包,例如 OpenCV 和 PyTorch。您可以使用以下命令在树莓派上安装它们: ``` sudo apt install python3-opencv sudo pip3 install torch torchvision ``` 2. 将 YOLOv5 模型转换为 TorchScript 格式:YOLOv5 模型是以 PyTorch 训练的,因此您需要将其转换为 TorchScript 格式,这样可以更快地在树莓派上运行。您可以使用以下命令将模型转换为 TorchScript 格式: ``` python3 models/export.py --weights <path_to_your_weights> --img 640 --batch 1 ``` 其中,`<path_to_your_weights>` 是您训练好的权重文件的路径。这将生成一个名为 `yolov5s.torchscript.pt` 的文件。 3. 在 Python 中加载 TorchScript 模型:在 Python 中加载 TorchScript 模型非常简单。您只需要使用以下代码即可加载模型: ```python import torch model = torch.jit.load('yolov5s.torchscript.pt') ``` 4. 在树莓派上运行推理:最后,您需要在树莓派上运行推理以检测对象。您可以使用以下代码运行推理: ```python import cv2 cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() # 进行图像预处理 # 进行推理 # 处理推理结果 cv2.imshow('frame', frame) if cv2.waitKey(1) == ord('q'): break cap.release() cv2.destroyAllWindows() ``` 在这个代码片段中,我们首先使用 OpenCV 从摄像头中读取帧。然后我们进行图像预处理,例如调整大小和归一化。接下来,我们将图像输入 TorchScript 模型进行推理,并处理推理结果。最后,我们将帧显示在屏幕上。 注意,这只是一个简单的示例,并且您需要根据您的应用程序进行更改。例如,您可能需要使用 GPIO 控制树莓派上的 LED 灯或马达。
评论 35
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值