Triton部署之TensorRT-bugfix

一、前言

        Triton部署经常会有一些姨妈的错误,个人经验大都为版本不匹配导致;

 二、 本人环境

        nvidia-smi:

使用的官方镜像为:nvcr.io/nvidia/tritonserver:21.09-py3
使用的onnx版本为:pip install onnx == 1.12.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
 对应的版本链接可参考官网:
    https://docs.nvidia.com/deeplearning/triton-inference-server/release-notes/rel_21-09.html#rel_21-09
 除此之外,环境依赖安装了: pip install nvidia-pyindex nvidia-dali-cuda110 

三、报错信息

报错信息如下:
    E0719 02:45:05.225510 2971 logging.cc:43] 6: The engine plan file is not compatible with this version of TensorRT, expecting library version 8.0.3 got 8.0.1, please rebuild.
    E0719 02:45:05.225711 2971 logging.cc:43] 4: [runtime.cpp::deserializeCudaEngine::75] Error Code 4: Internal Error (Engine deserialization failed.)     

四、解决方案

1、原因很明显为8.0.1版本的TensorRT导致了不兼容问题,故重装了对应的tensorRT版本为:

        pip install nvidia-tensorrt==8.0.3   

2、重新模型转换:model.onnx --> model.plan

3、放到对应的Triton模型目录下:很奇怪的是为什么都要命名为model.onnx 或者 model.plan,可能内定写死了?反正我改名就可以检测到了;

五、参考链接

        附上官网的用使用手册:Quickstart — NVIDIA Triton Inference Server

有问题随时联系,欢迎一键三连!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值