YOLOV3在Triton Inference Server部署并进行对象检测

注:原 TensorRT Inference Server 官方已改名为 Triton Inference Server

需要的镜像文件

  • nvcr.io/nvidia/tensorrtserver:19.10-py3
  • nvcr.io/nvidia/tensorrt:19.10-py2
  • enisberk/tensorrtserver_client:19.05

1、生成YOLOV3的.plan模型

首先在 YOLO官网 下载YOLOV3的yolov3.weights

Clone代码 yolov3-tensorrt

启动tensorrt容器:

docker run -it --name trt -v /yolov3-tensorrt:/yolov3-tensorrt nvcr.io/nvidia/tensorrt:19.10-py2

进入容器并构建yolov3.plan:

# 进入容器(之后步骤都是在容器内执行)
docker exec -it trt /bin/bash
# 进入yolov3-tensorrt目录,执行yolov3_to_onnx脚本。
  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值