Pytoch+TensorRT6采坑总结
之前都是用TensorRT6做部署,踩了很多坑了,现在总结一下
TensorRT6的问题是不支持pytorch1.3以上的版本。具体的说就是pytorch训练生成的模型文件,通过onnx转换成onnx格式的模型,再通过TensorRT转成engine格式模型,进行前向推倒,每一步都没问题,最后就是报错:
ERROR: Network must have at least one output
网上的解决方案基本上都是让在生成engine前加这两句来指定最后一层的输出:
last_layer = network.get_layer(network.num_layers - 1)
network.mark_output(last_layer.get_output(0))
但是其实这个错误还有一种情况,就是网络加载失败,什么意思呢,就是在onnx转engine这一步,需要把onnx里面的模型结构/参数挂载在build的network上,在一些情况下会挂载失败。通过network.num_layers可以知道挂载的层数,如果是0也会抛出ERROR: Network must have at least one output的问题。
具体原因应该是pytorch1.3以上某些API可能tensorrt不支持,解决办法是把pytorch降到1.2就可以了。
再然后就是之前TensorRT6踩的一些坑:
如果是做语义分割。一般都会用到上采样,上采样一般有两种类型一种是反卷积,一种是卷积+插值,
但是遗憾的是TensorRT6两种都有问题,pytorch的torch.nn.ConvTranspose2d函数会出现很麻烦的shape match问题,具体的就是某一层输出可能是256x64x64,然后变成了很奇怪的256x63x63,然后做cat操作就有问题。所以上采样只能够卷积+插值实现。
在pytorch中torch.nn.functional.interpolate函数主要有两种插值方式
nearest插值和双线性插值bilinear,由于onnx暂不支持bilinear,所以暂时只能用nearest插值做上采样。虽然可能会对精度有影响。
在pooling中pytorch提供了很多很方便的函数,比如各种自适应pooing,例如AdaptiveAvgPool2d等,但是这些pooling onnx统统不支持,不支持的原因我个人猜测是因为输入输出size是根据输入feature的size决定的,并没有显式的表达出来,为了完成模型转换,还是要用nn.AvgPool2d实现
总结一下Pytoch+TensorRT转换/部署模型的坑:
- Pytorch/tensorrt cuda cudnn环境,版本之间的冲突。
- Pytorch一些没有显式的指定size的相关api