pytorch C++部署模型 ONNX tensorRT

25 篇文章 5 订阅

(1)

C++部署pytorch模型(上)

(2)

TensorRT5介绍及Pytorch转TensorRT5代码示例

TensorRT的使用步骤:(假设以及有一个训练好的模型)
(1) 根据模型创建TensorRT网络定义
(2) 调用TensorRT构建器从网络创建优化的运行引擎
(3) 序列化和反序列化引擎,以便在运行时快速创建引擎
(4) 为引擎提供数据以执行计算

(3)

一般流程是这样的。

cpu: pytorch -> onnx -> onnxruntime

gpu:pytorch -> onnx -> onnx2trt -> TensorRT

上述库python、C++接口都具备,可以根据需要采用

转自:python训练的pytorch模型,如何使用c++调用并使用TensorRT加速?

(4)

tensorrt安装_深度学习模型部署(1)Pytorch转TensorRT(C++版)

说到底TensorRT的使用还是调包,只要对其流程熟悉了,使用起来也就不困难;
目前的模型是简单的unet结构,模型的层TensorRT都支持,下一步需要学习TRT中如何自定义自己的层,如DCN、NMS等。
教程还是官方的详细,本文也是对官方教程的翻译,再加上自己的一些理解与可能遇到的错误。建议英文阅读无障碍的朋友可以直接看官方的教程。

(5)

问题:为什么没有onnx转换pytorch的方法? - 九千树的回答 - 知乎
因为从pytorch到onnx,包含权重参数信息的网络结构被优化了,再返回去不好返

  • 1
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
C++ TensorRT 是 NVIDIA 推出的用于高性能深度学习推理的库,可以在 GPU 上加速模型推理。TensorRT 支持多种深度学习框架,包括 TensorFlow、Caffe、PyTorch 等。TensorRT部署流程大致如下: 1. 使用深度学习框架训练模型,并将模型保存为 ONNXTensorFlow 格式。 2. 使用 TensorRT 的 API 加载模型,并进行优化。 3. 将优化后的模型部署到 GPU 上进行推理。 以下是一个简单的 C++ TensorRT 部署示例: ```c++ #include <iostream> #include <fstream> #include <sstream> #include <vector> #include <chrono> #include "NvInfer.h" #include "NvOnnxParser.h" #include "NvInferRuntimeCommon.h" using namespace nvinfer1; using namespace std; int main(int argc, char** argv) { // 1. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 2. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 3. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 4. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 5. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 6. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 7. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 8. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 9. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 10. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 11. 创建 TensorRT 的 builder 和 network 对象 IBuilder* builder = createInferBuilder(gLogger); INetworkDefinition* network = builder->createNetwork(); // 释放资源 parser->destroy(); engine->destroy(); context->destroy(); inputTensor->destroy(); outputTensor->destroy(); stream->destroy(); runtime->destroy(); return 0; } ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Dontla

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值