tensorrt安装_深度学习模型部署(1)Pytorch转TensorRT(C++版)

1. 前言

深度学习的应用落地流程包括了神经网络的训练部署,我们熟悉的Tensorflow、Caffe、Pytorch等框架属于训练框架,用于神经网络的训练,在完成网络训练之后,我们需要对网络进行部署,这时候往往需要将网络迁移到部署框架上。

TensorRT是Nvidia开发的一个神经网络前向推理加速的C++库,提供了包括神经网络模型计算图优化、INT8量化、FP16低精度运算等神经网络前向推理优化的方法(更加具体的介绍可以参考官网:https://developer.nvidia.com/tensorrt)。目前TensorRT提供了C++与Python的API接口,本文中主要使用C++接口为例说明TensorRT框架的一般使用流程。

本文采用的实验流程为:Pytorch -> Onnx -> TensorRT。即首先将Pytorch模型转换为Onnx模型,然后通过TensorRT解析Onnx模型,创建TensorRT引擎及进行前向推理。

2. 准备工作

2.1 实验环境

  1. GPU:1080ti;

  2. Cuda:10.0;

  3. Cudnn:7.6;

  4. Pytorch:1.5;

  5. TensorRT:7.0

2.2 TensorRT安装

  1. 在 官网 下载对应版本的TensorRT,我这里选择源码安装,所以我下载的是:

15d9cb4e1cd18f662508440ed3bbad9b.png

2. 安装TensorRT

按照 官网安装指引 进行安装即可

2.3 ONNX环境安装

>> sudo apt-get install libprotobuf-dev protobuf-compiler # protobuf is a prerequisite library>> git clone --recursive https://github.com/onnx/onnx.git # Pull the ONNX repository from GitHub >> cd onnx>> mkdir build && cd build >> cmake .. # Compile and install ONNX>> make # Use the ‘-j’ option for parallel jobs, for example, ‘make -j $(nproc)’ >> make install

3. 示例详解

3.1 Python模型转Onnx

3.2 输入数据预处理idia官方提供的一个基于unet模型的大脑MRI图像分割的例子:

>> wget https://developer.download.
  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值