yolov8系列[四]-yolov8模型部署

jetson平台

0.安装环境

下载torch、torchvision参考PyTorch 官方安装命令合集
我用的版本是
torch-1.10.0-cp37-cp37m-linux_aarch64.whl
torchvision-0.11.0-cp37-cp37m-linux_aarch64.whl

1. 下载源代码

下载:Deepstream-yolo
下载:ultralytics
DeepStream-Yolo/utils/ export_yoloV8.py复制到ultralytics根目录

cp DeepStream-Yolo/utils/gen_wts_yoloV8.py ultralytics
2. .pt转换模型转换为.onnx模型
  • 转换脚本
python export_yoloV8.py -w drone_yolov8m_best.pt --opset=12

执行上面的脚本得到 labels.txt drone_yolov8m_best.onnx

  • 遇到问题,使用一下的脚本转换会报错,加上 --opset=12解决
python export_yoloV8.py -w drone_yolov8m_best.pt
3. 配置deepstream_yolo
  1. 生成lib库
CUDA_VER=11.4 make -C nvdsinfer_custom_impl_Yolo
  1. 配置config_infer_primary_yoloV8
    修改config_infer_primary_yoloV8.txt相关配置
    执行脚本生成library
[property]
gpu-id=0
net-scale-factor=0.0039215697906911373
model-color-format=0
onnx-file=drone_yolov8m_best.onnx
model-engine-file=drone_yolov8m.onnx_b1_gpu0_fp32.engine
#int8-calib-file=calib.table
labelfile-path=labels_drone.txt
batch-size=1
network-mode=0
num-detected-classes=1
interval=0
gie-unique-id=1
process-mode=1
network-type=0
cluster-mode=2
maintain-aspect-ratio=1
symmetric-padding=1
parse-bbox-func-name=NvDsInferParseYolo
custom-lib-path=nvdsinfer_custom_impl_Yolo/libnvdsinfer_custom_impl_Yolo.so

[class-attrs-all]
nms-iou-threshold=0.45
pre-cluster-threshold=0.25
topk=300
4. 运行
deepstream-app -c deepstream_app_config_yolov8_drone.txt

参考:Deploy YOLOv8 on NVIDIA Jetson using TensorRT and DeepStream SDK

  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

GeekPlusA

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值