Yolov5>onnx>TensorRT(JetSon Nano 2G)

如若不需要选择版本:

git clone https://github.com/ultralytics/yolov5.git

选择版本(建议):

git clone -b v4.0 https://github.com/ultralytics/yolov5.git

pt>onnx:
进入yolov5文件夹

python models\export.py --weights(自己训练的权重)

简化:python -m onnxsim onnx权重 最终得到的简化onnx权重
onnx 验证:

import numpy as np
import cv2
import onnxruntime as rt


def load_and_run(file_path="E:/yolov5/best-.onnx"):
    image = cv2.imread("E:/yolov5/img.jpg", cv2.IMREAD_COLOR)
    image = cv2.resize(image, (640, 640), interpolation=cv2.INTER_LINEAR)  # 图片改成onnx输入大小
    print(image.shape)
    image = np.transpose(image, (2, 0, 1))
    print(image.shape)
    image = image / 127.5 - 1.0  # 图片归一化处理
    image = np.expand_dims(image, 0).astype(np.float32)
    print(image.dtype)
    sess = rt.InferenceSession(file_path)
    outputs = ["output", "544"]
    result = sess.run(outputs, {"images": image})
    b, i = result
    print(b.shape)
    print(i.shape)


if __name__ == "__main__":
    load_and_run()

Jetson Nano 系统的基本处理:
前往官网下载img镜像(建议下载4.4.1):https://developer.nvidia.com/zh-cn/embedded/downloads
使用balenaEtcher 进行系统烧录:
如果系统在使用过程中不满意则可以下载一个diskgenius对TF卡进行格式化等操作
相关包百度链接:https://pan.baidu.com/s/1PlTPHOrng0hbetLRwPoOkQ
提取码:1213 (提示:若使用该链接包,后续命令安装则需要进行相应替换)
复制这段内容后打开百度网盘手机App,操作更方便哦–来自百度网盘超级会员V3的分享
烧录好之后使用显示器进行基本设置:
可以选择设置固定ip:

cd /etc/network/interfaces.d
sudo touch eth0
vim eth0

在这里插入图片描述

:wq
cd .. 
vim interfaces

在这里插入图片描述
检查系统文件更新:

sudo apt-get update
sudo apt-get full-upgrade

CUDA检测:

sudo vim ~/.bashr

在最后加入
export CUDA_HOME=/usr/local/cuda-10.2
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64
export PATH=/usr/local/cuda-10.2/bin:$PATH
保存退出并执行

source ~/.bashrc

使用nvcc -V查看CUDA版本
测试CUDNN:

cd /usr/src/cudnn_samples_v8/mnistCUDNN # 进入测试目录 
sudo make #编译
./mnistCUDNN #执行

输入python3,若有则退出继续输入pip3 命令查看是否含有pip3(pip3 install 命令最好用python3 -m pip install 替换
若没有则可执行

sudo apt-get install python3
sudo apt-get install python3-pip libopenblas-base libopenmpi-dev

Cython 安装:

sudo pip3 install Cython

Torch、onnxruntime 安装:https://elinux.org/Jetson_Zoo#PyTorch_.28Caffe2.29下载whl文件(与nano python3对应)使用命令pip3 install .whl(文件名)安装
ONNX、numpy、pycuda安装:

pip3 install --upgrade pip
sudo apt-get install protobuf-compiler libprotoc-dev
pip3 install onnx numpy pycuda --user -i https://pypi.tuna.tsinghua.edu.cn/simple

做好以上最好使用sudo apt-get update更新一次
若要查看torch等python包是否安装成功或者版本:

python3
import torch
import numpy
print(torch.__version__)
print(numpy.__version__)

在这里插入图片描述
关于python3 进入python 环境时报Illegal instruction (core dumped)

sudo gedit ~/.bashrc

在末尾加入:

export OPENBLAS_CORETYPE=ARMV8

保存退出

source ~/.bashrc

onnx>tensorrt
github地址:https://github.com/miyane-ralo/YPRO/tree/main/jetson 代码一些参数请参照自己格式进行更改

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值