tensorrt动态batch推理注意事项

一、背景:使用pytorch进行训练得到pt模型, 然后使用torch.onnx把pt模型转化为onnx模型。然后再使用tensorrt自带的trtexec.exe文件把onnx模型转化为engine文件。

(1)在使用C++进行推理的时候发现一个batch的数据,值推理了里面的第一张,其他图片输出的结果都为0;

原因分析:这是因为在使用torch.onnx把pt文件转为onnx的时候,没有给他增加动态batch,导致默认的batch为1,所以在推理一个batch里面的多个数据时,只对第一个数据进行了加速推理操作,其他的数据就没进入推理,所以其他数据输出为0;

(2)解决方法:

1.首先pt模型转onnx模型的时候,在export加上 dynamic_axes 参数,这样在把onnx转为tensorrt的engine文件的时候,才能转化成功。

import torch.onnx

model = torch.load("cls_model.pth")
model.eval()

dummy_input = torch.randn(1, 3, 64, 64).to("cuda")
torch.onnx.export(model,
                  dummy_input,
                  "cls_model_dyn.onnx",
                  export_params=True,
                  input_names=["input"],
                  output_names=["output"],
                  verbose=True, # verbose=True 会打印出详细的转换过程
                  dynamic_axes={'input':{0:"batch"}, "output":{0:"batch"}} # 设置动态的batch_size
                  )

2.然后在使用trtexec.exe把onnx转成engine文件的话,给它设置动态范围大小minShapes、optShapes、maxShapes、(根据自己推理大小来更改,我的是64)

 .\trtexec.exe --onnx=cls_model_dyn.onnx --saveEngine=cls.engine --explicitBatch --minShapes=input:1x3x64x64 --optShapes=input:8x3x64x64 --maxShapes=input:8x3x64x64

这样子在使用C++推理的时候就可以推理一个batch的数据了。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值