TensorRT 环境搭建记录

本文详细记录了TensorRT环境的搭建过程,包括在Centos和TX2上的安装步骤,以及遇到的问题和解决方案。介绍了TensorRT作为高效推理库的功能,其在GPU加速和模型优化方面的优势,并提供了模型转换、C++ API应用及Python安装的实践案例。重点关注了CUDA和CUDNN版本匹配、环境变量设置和性能测试。
摘要由CSDN通过智能技术生成

TensorRT 环境搭建记录

1.TensorRT介绍

  NVIDIA-TensorRT的核心是一个利用NVIDIA的GPU来促进高效推理的C++库。TensorRT从一个包含网络定义和一系列网络参数的已经训练好的网络中产生一个高度优化的运行引擎,来执行网络的推理,更加高效的使用GPU,主要提供边缘设备的加速计算。

  TensorRT提供了C++和python的接口来通过网络定义接口的方式使用深度学习模型,或者通过解析器来加载一个预训练的模型,能够让TensorRT在NVIDIA GPU上来优化和运行。TensorRT在其他各种优化中选择了图优化,层融合,也利用多种高度优化的内核的结合发现了最快的执行模型的方式。TensorRT也提供了运行环境,你可以使用TensorRT在Kepler一代开始所有的NVIDIA的GPU上执行网络。

2.使用TensorRT总目标

  • 使用pytorch训练好的模型转成onnx模型,然后保证onnx模型和pytorch模型的结果一致然后在把onnx模型转成TensorRT支持的模型,或者直接使用TensorRT的parser对onnx模型进行推理运算
  • 使用TensorRT的C++ API在TX2上跑分类模型、检测模型以及分割模型
  1. 实验环境:Centos-7.4 CUDA-10.1 cudnn-7.6.4 TensorRT-5.1.5.0
  2. 移动设备:jetson-tx2 JETPACK-4.2.2 TensorRT-5.1.6.0
  3. 模型选择:resnet-18 UltraFace ENet

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值