飞浆创造营第五课|在Jetson Nano上基于python部署Paddle Inference

Notebook
文件
一、准备好一块新鲜出炉的Jetson nano,并配好基础的开发环境
1.基础配置方法
关于板子,除了Jetson nano,如果你手里有一块NX或者是TX2甚至是AGX,不必担心!Jetson系列所有板子部署方式相同!而且钞能力越强的板子跑起来效果更加的让人身心愉悦。
二、安装PaddlePaddle环境
1.直接下载官方编译好的Jetson nano预测库
运行结果:
三、测试Paddle Inference
(1)拉取Paddle-Inference-Demo:
(2)测试跑通GPU预测模型
四、报错解决
(1)运行demo过程中卡住
解决方法:
扩大运行内存 (亲测:建议至少给8G,反正6G不行)
扩大虚拟内存后,运行正常:
(2)core dumped
解决方法:
五、部署自己的目标检测模型
效果展示
性能分析:CPU、GPU、GPU+TensorRT预测时间对比
关于如何更改预测模式
测试模型:mobilenet v1
测试模型:yolov3_r50vd
该文章同时也开源在CSDN,大家可以直接进行访问:Jetson Nano——基于python API部署Paddle Inference GPU预测库(2.1.1)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值