nvidia jetson nano如何正确安装onnx

9 篇文章 1 订阅
4 篇文章 0 订阅

简介

本文不需要从源码编译pybind11,之前搜了一圈站内都是从源码编译pybind11,属于是传谣了,这里点名两篇文章谣言1谣言2
首先说明onnx的1.12.0版本和jetson nano上ubuntu18.04安装的protobuf compiler3.0.0版本是不兼容的,因为要跑Yolov5,所以尝试了最低要求,也就是onnx的1.9.0版本,成功安装。此外,所有本文中的pip指的都是python3.6.9的pip,我这边已经没有python2的pip了,如果你那边还有,请把pip换成pip3。

安装步骤

sudo获取权限我就不打了,安装包的时候要么用虚拟环境,要么-u切成users权限安装,要么跟我一样先sudo,然后直接全部在root权限下安装(不推荐)。

1.安装protobuf相关

apt-get install protobuf-compiler libprotobuf-dev

onnx安装时会搜索存在的protobuf编译器,所以要先安装,不然会报“onnx protobuf compiler not found”错误。

2.安装pybind11

直接运行pip install pybind11,确实不起作用,但:

pip install pybind11[global]

没错,只要在pybind11后加[global],就解决了错误
“onnx could not find pybind11 missing pybind11_DIR”或者缺少“pybind11Config.cmake”, “pybind11-config.cmake”的错误。

3.安装onnx

pip install onnx==1.9.0

为啥是这个版本,在简介里说过了,不然会报“onnx error no match for operator []”的错误。

最终展示

放张成功安装的图,免得有人说空口无凭。

在这里插入图片描述

  • 7
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Jetson Nano 是一款基于 NVIDIA Jetson 平台的小型开发板,可以用于部署深度学习模型。PyTorch是一种非常流行的深度学习框架,而 ONNX是一种可互操作的深度学习模型格式,可以在不同的框架之间共享模型。 以下是在 Jetson Nano 上部署 PyTorch ONNX 模型的步骤: 1. 安装 PyTorch 和 ONNXJetson Nano 上安装 PyTorch 和 ONNX,可以使用 pip 命令: ``` pip3 install torch torchvision pip3 install onnx ``` 2. 导出 PyTorch 模型为 ONNX 格式 使用 PyTorch 将模型导出为 ONNX 格式,可以使用以下代码: ``` import torch import torchvision model = torchvision.models.resnet18(pretrained=True) model.eval() dummy_input = torch.randn(1, 3, 224, 224) input_names = ["input"] output_names = ["output"] torch.onnx.export(model, dummy_input, "resnet18.onnx", verbose=True, input_names=input_names, output_names=output_names) ``` 3. 在 Jetson Nano 上加载 ONNX 模型 使用 ONNX 运行时库在 Jetson Nano 上加载 ONNX 模型。可以使用以下代码: ``` import onnxruntime as ort session = ort.InferenceSession("resnet18.onnx") input_name = session.get_inputs()[0].name output_name = session.get_outputs()[0].name input_data = np.random.randn(1, 3, 224, 224).astype(np.float32) result = session.run([output_name], {input_name: input_data}) print(result) ``` 以上就是在 Jetson Nano 上部署 PyTorch ONNX 模型的步骤。需要注意的是,在 Jetson Nano 上运行深度学习模型需要使用 GPU 加速,因此应该确保已经安装了适当的 NVIDIA GPU 驱动程序和 CUDA 工具包。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值