Notebook
文件
一、准备好一块新鲜出炉的Jetson nano,并配好基础的开发环境
1.基础配置方法
关于板子,除了Jetson nano,如果你手里有一块NX或者是TX2甚至是AGX,不必担心!Jetson系列所有板子部署方式相同!而且钞能力越强的板子跑起来效果更加的让人身心愉悦。
二、安装PaddlePaddle环境
1.直接下载官方编译好的Jetson nano预测库
运行结果:
三、测试Paddle Inference
(1)拉取Paddle-Inference-Demo:
(2)测试跑通GPU预测模型
四、报错解决
(1)运行demo过程中卡住
解决方法:
扩大运行内存 (亲测:建议至少给8G,反正6G不行)
扩大虚拟内存后,运行正常:
(2)core dumped
解决方法:
五、部署自己的目标检测模型
效果展示
性能分析:CPU、GPU、GPU+TensorRT预测时间对比
关于如何更改预测模式
测试模型:mobilenet v1
测试模型:yolov3_r50vd
该文章同时也开源在CSDN,大家可以直接进行访问:Jetson Nano——基于python API部署Paddle Inference GPU预测库(2.1.1)
飞浆创造营第五课|在Jetson Nano上基于python部署Paddle Inference
最新推荐文章于 2023-09-18 22:56:24 发布