yolov5部署_jetson_deepstream_tensorrtx

此文档使用yolov5-v5.0以及对应版本的tensorrtx包

一、安装依赖包

sudo apt install \
libssl1.0.0 \
libgstreamer1.0-0 \
gstreamer1.0-tools \
gstreamer1.0-plugins-good \
gstreamer1.0-plugins-bad \
gstreamer1.0-plugins-ugly \
gstreamer1.0-libav \
libgstrtspserver-1.0-0 \
libjansson4=2.11-1

二、下载并安装deepstream sdk

1)下载DeepStream 5.1 Jetson tar package deepstream_sdk_v5.1.0_jetson.tbz2
#链接:https://pan.baidu.com/s/1LGP1QMwWf0ZTauXAO4pu4Q    提取码:80ij 
2)解压并安装
sudo tar -xvf deepstream_sdk_v5.1.0_jetson.tbz2 -C /
cd /opt/nvidia/deepstream/deepstream-5.1
sudo ./install.sh
sudo ldconfig

三、在电脑端完成模型pt转wts

(此处务必检查yolov5与tensorrtx包的版本)
git clone -b v5.0 https://github.com/ultralytics/yolov5.git
git clone -b yolov5-v5.0 https://github.com/wang-xinyu/tensorrtx.git
cp {tensorrtx}/yolov5/gen_wts.py {ultralytics}/yolov5
cd {ultralytics}/yolov5
python gen_wts.py -w best.pt -o best.wts

四、在jetson上完成wts转engine

1)在jetson上克隆v5.0版本tensorrtx
git clone -b yolov5-v5.0 https://github.com/wang-xinyu/tensorrtx.git
2)编译
#检查yolov5.cpp中的模型权重NET,默认的是s
#检查yololayer.h中CLASS_NUM的数量,默认的是80
cd tensorrtx/yolov5
mkdir build
cd build
cmake ..
make
3)复制best.wts到tensorrtx/yolov5/build目录下
4)生成yolov5s.engine
sudo ./yolov5 -s best.wts yolov5s.engine s
sudo ./yolov5 -d yolov5s.engine ../samples

五、DeepStream部署yolov5模型

1)设置权限
sudo chmod -R 777 /opt/nvidia/deepstream/deepstream-5.1/sources/
2)拷贝项目文件yolov5.zip到/opt/nvidia/deepstream/deepstream-5.1/sources/并解压
#链接:https://pan.baidu.com/s/1DX_DtoJMbwugGVEaWuF1bw    提取码:q0e2 
#该文件对应yolov5-v5.0,若需使用其他版本,自行修改其中yololayer.h、yololayer.cu等文件
3)编译
#修改config_infer_primary.txt中的num
#修改labels.txt
##如要改变NMS_THRESH, 编辑文件nvdsinfer_custom_impl_Yolo/nvdsparsebbox_Yolo.cpp
##如要改变CONF_THRESH, 编辑文件config_infer_primary.txt
cd /opt/nvidia/deepstream/deepstream-5.1/sources/yolov5
CUDA_VER=10.2 make -C nvdsinfer_custom_impl_Yolo

六、测试

1)测试视频文件推理
cd /opt/nvidia/deepstream/deepstream-5.1/sources/yolov5
deepstream-app -c deepstream_app_config.txt
2)USB摄像头测试
deepstream-app -c source1_usb_dec_infer_yolov5.txt
3)CSI摄像头测试
deepstream-app -c source1_csi_dec_infer_yolov5.txt
  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要将YOLOv5部署到Jetson Nano上,您需要按照以下步骤进行操作: 1.安装JetPack SDK:JetPack SDK是NVIDIA Jetson Nano的软件开发工具包,它包含了必要的驱动程序、库和工具,以便您可以在Jetson Nano上运行深度学习模型。您可以从NVIDIA官网下载并安装JetPack SDK。 2.安装依赖项:在Jetson Nano上运行YOLOv5需要安装一些依赖项,包括Python、OpenCV、PyTorch等。您可以使用以下命令安装这些依赖项: sudo apt-get update sudo apt-get install python3-pip libopenblas-dev libblas-dev m4 cmake cython python3-dev python3-yaml python3-setuptools python3-wheel python3-pillow python3-numpy 3.下载YOLOv5:您可以从GitHub上下载YOLOv5的源代码。使用以下命令将源代码克隆到Jetson Nano上: git clone https://github.com/ultralytics/yolov5.git 4.下载预训练模型:YOLOv5需要一个预训练模型来进行目标检测。您可以从YOLOv5的官方网站上下载预训练模型。将预训练模型下载到Jetson Nano上。 5.测试YOLOv5:使用以下命令在Jetson Nano上测试YOLOv5: cd yolov5 python3 detect.py --source # webcam python3 detect.py --source path/to/image.jpg # image python3 detect.py --source path/to/video.mp4 # video 6.部署YOLOv5:如果您想将YOLOv5部署到Jetson Nano上进行实时目标检测,您可以使用TensorRT进行优化。TensorRT是NVIDIA的深度学习推理引擎,可以将深度学习模型优化为高效的推理引擎。您可以使用以下命令将YOLOv5优化为TensorRT引擎: python3 models/export.py --weights path/to/weights.pt --img 640 --batch 1 --name yolov5s --dynamic 7.使用TensorRT进行推理:使用以下命令在Jetson Nano上使用TensorRT进行推理: python3 detect.py --source --weights path/to/yolov5s.engine --img 640 --batch 1 --half 这些是将YOLOv5部署到Jetson Nano上的基本步骤。您可以根据自己的需求进行调整和优化。 ### 回答2: YoloV5是一种基于深度学习的目标检测算法,它通过训练深度神经网络模型对图像中的目标进行定位和分类。Jetson Nano是英伟达公司推出的一款嵌入式AI计算平台,它搭载了NVIDIA的Tegra X1芯片,拥有1.43 TFLOPS的性能,适合进行AI任务的实时计算和推理。下面将介绍如何将YoloV5部署到Jetson Nano上。 第一步:安装JetPack和CUDA JetPack是Jetson Nano上的开发环境,它包含了操作系统、CUDA等驱动程序、TensorRT等工具库。首先需要下载安装最新版的JetPack,同时安装适配的CUDA。 第二步:安装Python和PyTorch 在Jetson Nano上运行YoloV5需要安装Python和PyTorch。可以使用apt-get和pip安装Python以及相关的Python库。安装完Python之后,需要编译和安装PyTorch,具体的步骤可以参考官方文档。 第三步:下载YoloV5代码 可以从GitHub上下载YoloV5的代码和预训练模型。将代码和模型文件复制到Jetson Nano上的任意目录。 第四步:测试YoloV5模型 首先需要在Jetson Nano上安装OpenCV和scipy库。然后使用YoloV5提供的测试脚本对预训练模型进行测试,测试结果将会输出到终端。 第五步:优化YoloV5模型 为了提高YoloV5在Jetson Nano上的运行速度和效率,可以使用TensorRT进行模型优化。TensorRT是一个高性能的推理引擎,可以加速深度学习模型的部署和推理。可以使用YoloV5提供的脚本将模型转换为TensorRT格式,并进行推理。 综上所述,将YoloV5部署到Jetson Nano上需要安装JetPack和CUDA,安装Python和PyTorch,下载YoloV5代码,测试模型并进行优化。这些步骤有些繁琐,需要一定的技术和经验。但是一旦成功部署YoloV5将可以在Jetson Nano上实现高效准确的目标检测。 ### 回答3: Yolov5是一种高效的目标检测算法,适用于各种嵌入式设备,例如Jetson Nano。为了将Yolov5部署到Jetson Nano,需要首先进行以下步骤: 1. 准备Jetson Nano主机和Yolov5模型。 2. 安装Jetson Nano上的CUDA和CUDNN,以便在GPU上快速运行Yolov5。 3. 安装Python环境并安装所需的Python依赖项。 4. 将Yolov5模型上传至Jetson Nano。 5. 使用Jetson Nano上的Python脚本加载模型并进行推理。 以下是详细步骤: 1. 准备Jetson Nano主机和Yolov5模型。 Jetson Nano主机需要安装操作系统(例如Ubuntu)和必备软件(例如OpenCV)。Yolov5模型应该是经过训练的,并保存为.pt文件格式。 2. 安装CUDA和CUDNN。 CUDA和CUDNN是在GPU上快速运行Yolov5所必需的软件。在Jetson Nano上,可以使用Jetpack SDK进行安装。Jetpack SDK包含必要的CUDA和CUDNN软件包。 3. 安装Python环境并安装所需的Python依赖项。 Jetson Nano上应该安装Python 3。然后可以使用pip安装所需的Python依赖项。这些依赖项包括PyTorch和其他必需的Python软件包。 4. 将Yolov5模型上传至Jetson Nano。 将训练好的Yolov5模型上传至Jetson Nano,并确保放置在正确的位置。 5. 使用Jetson Nano上的Python脚本加载模型并进行推理。 使用Python脚本加载Yolov5模型并进行推理。这可以通过使用PyTorch等Python库来实现。Jetson Nano上的脚本可以检测输入图像上的对象,然后输出具有位置和类型信息的对象列表。 通过这些步骤,Yolov5就可以顺利地部署到Jetson Nano上。这种部署可以用于各种实时应用程序,例如自动驾驶和智能家居。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值