基于Jetson NX的模型部署

系统安装

系统安装过程分为3步:

  1. 下载必要的软件及镜像

Jetson Nano Developer Kit SD卡映像
https://developer.nvidia.com/jetson-nano-sd-card-image

Windows版SD存储卡格式化程序
https://www.sdcard.org/downloads/formatter_4/eula_windows/

镜像烧录工具balenaEtcher
https://www.balena.io/etcher

  1. 格式化SD卡并写入镜像

安装Paddle

Paddle Inference 是飞桨的原生推理库, 作用于服务器端和云端,提供高性能的推理能力,在使用之前,我们需要在Jetson Nano里安装好PaddlePaddle。

sudo apt-get install python3-pip
pip3 install --upgrade pip

pip3 install --upgrade numpy==1.16.1

cat /etc/nv_tegra_release

下载并安装与Jetpack版本对应的PaddlePaddle
在这里插入图片描述
在这里插入图片描述

下载链接: https://paddleinference.paddlepaddle.org.cn

测试PaddlePaddle

python3
import paddle
paddle.fluid.install_check.run_check()

在这里插入图片描述

模型准备

在部署之前,我们需要得到 Paddle 预测格式的模型: - 存储模型结构的inference.pdmodel - 存储模型参数的inference.pdiparams

获取方式有很多种,可以自己训练一个模型,并使用paddle.static.save_inference_model接口保存推理模型和参数

当然你也可以使用套件训练一个模型,然后将模型导出成推理模型,下面我们以PaddleDetection为例。

# 拉取PaddleDetection源码
git clone https://gitee.com/PaddlePaddle/PaddleDetection
# 安装依赖库
pip install pycocotools
pip install motmetrics
pip install lap

我们可以在/PaddleDetection/configs下找到很多模型,这里以ppyolo为例,选择你想导出的预训练模型。

模型权重可以在PaddleDetection的官方文档里找到。如果你想导出别的模型,直接替换下面config和weight的参数即可。

cd PaddleDetection/
python tools/export_model.py -c configs/ppyolo/ppyolo_tiny_650e_coco.yml --output_dir=./inference_model \
-o weights=https://paddledet.bj.bcebos.com/models/ppyolo_tiny_650e_coco.pdparams

推理模型准备好之后,下载到Jetson NX 即可使用。

参考资料:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鳄鱼儿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值