Pytoch+TensorRT6采坑总结

Pytoch+TensorRT6采坑总结

之前都是用TensorRT6做部署,踩了很多坑了,现在总结一下

TensorRT6的问题是不支持pytorch1.3以上的版本。具体的说就是pytorch训练生成的模型文件,通过onnx转换成onnx格式的模型,再通过TensorRT转成engine格式模型,进行前向推倒,每一步都没问题,最后就是报错:

ERROR: Network must have at least one output

网上的解决方案基本上都是让在生成engine前加这两句来指定最后一层的输出:
last_layer = network.get_layer(network.num_layers - 1)
network.mark_output(last_layer.get_output(0))

但是其实这个错误还有一种情况,就是网络加载失败,什么意思呢,就是在onnx转engine这一步,需要把onnx里面的模型结构/参数挂载在build的network上,在一些情况下会挂载失败。通过network.num_layers可以知道挂载的层数,如果是0也会抛出ERROR: Network must have at least one output的问题。

具体原因应该是pytorch1.3以上某些API可能tensorrt不支持,解决办法是把pytorch降到1.2就可以了。

再然后就是之前TensorRT6踩的一些坑:

如果是做语义分割。一般都会用到上采样,上采样一般有两种类型一种是反卷积,一种是卷积+插值,
但是遗憾的是TensorRT6两种都有问题,pytorch的torch.nn.ConvTranspose2d函数会出现很麻烦的shape match问题,具体的就是某一层输出可能是256x64x64,然后变成了很奇怪的256x63x63,然后做cat操作就有问题。所以上采样只能够卷积+插值实现。

在pytorch中torch.nn.functional.interpolate函数主要有两种插值方式
nearest插值和双线性插值bilinear,由于onnx暂不支持bilinear,所以暂时只能用nearest插值做上采样。虽然可能会对精度有影响。

在pooling中pytorch提供了很多很方便的函数,比如各种自适应pooing,例如AdaptiveAvgPool2d等,但是这些pooling onnx统统不支持,不支持的原因我个人猜测是因为输入输出size是根据输入feature的size决定的,并没有显式的表达出来,为了完成模型转换,还是要用nn.AvgPool2d实现

总结一下Pytoch+TensorRT转换/部署模型的坑:

  1. Pytorch/tensorrt cuda cudnn环境,版本之间的冲突。
  2. Pytorch一些没有显式的指定size的相关api
  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值