使用深度学习框架
- 14.使用深度学习框架
-
- 14.1 使用TensorFlow
-
- 14.1.1 冻结TensorFlow图
- 14.1.2 冻结Keras模型
- 14.1.3 将冻结图转换为UFF
- 14.1.4 使用TensorFlow RNN权重
- 14.1.5 使用图外科医生API预处理TensorFlow图
- 14.2 使用PyTorch和其他框架
14.使用深度学习框架
借助Python API,可以使用使用TensorFlow,Caffe或ONNX兼容框架构建的现有模型,使用提供的解析器来构建NVIDIA®TensorRT™引擎。 Python API还支持以NumPy兼容格式存储层权重的框架,例如PyTorch。
14.1 使用TensorFlow
TensorRT可以通过以下方式与TensorFlow一起使用。
tf2onnx
- 这是推荐的方法,涉及先使用tf2onnx转换器将TensorFlow图转换为ONNX,然后使用ONNX解析器将ONNX模型导入TensorRT。有关tf2onnx的详细信息,请参见tf2onnx存储库。有关使用ONNX解析器的详细信息,请参阅使用Python从ONNX导入或使用C++解析器API导入ONNX模型步骤。
TF-TRT
- 即使该图中有TensorRT(或T