注:原 TensorRT Inference Server 官方已改名为 Triton Inference Server
需要的镜像文件
- nvcr.io/nvidia/tensorrtserver:19.10-py3
- nvcr.io/nvidia/tensorrt:19.10-py2
- enisberk/tensorrtserver_client:19.05
1、生成YOLOV3的.plan模型
首先在 YOLO官网 下载YOLOV3的yolov3.weights
Clone代码 yolov3-tensorrt
启动tensorrt容器:
docker run -it --name trt -v /yolov3-tensorrt:/yolov3-tensorrt nvcr.io/nvidia/tensorrt:19.10-py2
进入容器并构建yolov3.plan:
# 进入容器(之后步骤都是在容器内执行)
docker exec -it trt /bin/bash
# 进入yolov3-tensorrt目录,执行yolov3_to_onnx脚本。