关于使用jetson-inference onnx转tensorrt报错,
查到onnx/onnx-tensorrt#758说是要增加工作空间大小 ,但是jetson-inference封装了
阅读代码发现在jetson-inference-master\c\tensorNet.cpp
#if NV_TENSORRT_MAJOR > 5 mWorkspaceSize = 32 << 20; #else mWorkspaceSize = 16 << 20; #endif
将32<<20改为1<<30就可以了