TensorRT 入门(4) Python API 浏览

0. 前言

  • 官方文档地址

  • 内容简介:

    • User Guide:用户手册,主要包括安装、迁移以及一些基本概念
    • TensorRT API Reference
    • UFF Converter API Reference
    • GraphSurgeon API Reference

1. User Guide

  • 用户手册,主要内容包括
    • 安装。其实就是直接链接到TensorRT的文档页面,还有就是要安装PyCUDA.
    • 从TensorRT 4迁移。这部分我不关心。
    • 核心(基本)概念。这部分对我来说挺重要,重点学习一下。

1.1. Core Concepts

  • TensorRT Workflow(工作流,基本工作流程,共三步)
    • 第一步:模型解析与构建。
      • 构建 tensorrt.INetworkDefinition对象
      • 可通过解析器(如ONNX Parser)或TensorRT Network API构建。
      • 可通过 tensorrt.Builder 来构建空白的tensorrtINetworkDefinition
    • 第二步:模型优化(Engine优化)
      • 使用 tensorrt.Builder以及创建好的tensorrt.INetworkDefinition来创建 tensorrt.ICudaEngine
      • 优化好的engine可以序列化到内存或本地文件(.trt)中。
    • 第三步:执行
      • 通过创建好的 tensorrt.ICudaEngine 新建 tensorrt.IExecutionContext对象,实现模型推理。
      • 主要工作是分配资源?
  • 大类(classes overview)
    • Logger:日志,没啥好多说的
    • Engine and Context:就是tensorrt.ICudaEngine对象以及tensorrt.IExecutionContext对象,前者感觉是一个优化好的模型(可能理解不对),后者是模型运行时所需要的上下文(可以理解为模型运行需要的资源)
    • Builder:用来创建tensorrt.ICudaEngine对象,需要以tensorrt.INetworkDefinition作为输入
    • Network:即tensorrt.INetworkDefinition对象,表示一个计算图。需要将别的深度学习框架模型转换为这个形式。
    • Parsers:解析器,将其他形式的模型转换为tensorrt.INetworkDefinition对象

2. TensorRT API Reference

  • Foundational Types:TensorRT中的基本数据结构

image-20210223154745827

  • Core:核心组件,看着像是一些运行过程相关的内容。

    image-20210223154733939

  • Network:构建网络相关,各种layer以及tensor相关。

  • Plugin:组件,我猜测主要是跟自定义op相关。

  • Int8:看名字就是模型量化,但没细看里面的内容

  • UFF/Caffe/Onnx Parser:模型转换器

3. UFF Converter API Reference

  • UFF是啥?
    • 类似于onnx的一种模型保存格式,看API主要就是用于TensorFlow。
    • 我也没用过,听说也不是那么好用。
    • TF不是有TF-TRT吗,为啥还要UFF?不太懂,以后用到了才会知道。
  • API包括两个方面
    • 转化工具:将tf转换为uff
    • operators:类似于Onnx,一堆layer。

4. GraphSurgeon API Reference

  • GraphSurgeon 是啥?
    • 专门用来处理、转换TF计算图的工具。
  • API说白了就是增删改查TF计算图,包括动态图、静态图两方面。
  • 不过我现在不怎么用TF,所以也不清楚细节。
### 回答1: TensorRT是NVIDIA推出的深度学习推理引擎,可以在GPU上高效地运行深度学习模型。TensorRT支持Windows平台,可以通过以下步骤安装: 1. 安装CUDA和cuDNN:TensorRT需要依赖CUDA和cuDNN,需要先安装它们。可以从NVIDIA官网下载对应版本的CUDA和cuDNN,并按照官方文档进行安装。 2. 下载TensorRT:可以从NVIDIA官网下载对应版本的TensorRT,下载完成后解压到指定目录。 3. 安装TensorRT Python APITensorRT提供了Python API,可以通过pip安装。打开命令行窗口,输入以下命令: ``` pip install tensorrt ``` 4. 安装TensorRT UFF Parser:如果需要使用UFF格式的模型,需要安装TensorRT UFF Parser。可以通过pip安装。打开命令行窗口,输入以下命令: ``` pip install uff ``` 安装完成后,就可以在Windows平台上使用TensorRT了。 ### 回答2: TensorRT是NVIDIA推出的一个高效的深度神经网络推理引擎,可以大幅提升神经网络在GPU上的运行速度。TensorRT支持多种深度学习框架,如TensorFlow、Caffe和PyTorch等。在本文中,我们将探讨如何在Windows环境中使用Python安装TensorRT。 1. 准备工作 在安装TensorRT之前,需要先安装CUDA和cuDNN。TensorRT依赖于CUDA和cuDNN,并且需要使用与您的GPU型号相对应版本的CUDA和cuDNN。 首先,下载并安装适合您GPU的CUDA软件包。然后,下载cuDNN库并将其解压缩到CUDA的安装目录中。例如,如果您的CUDA安装在C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1路径下,那么解压cuDNN库后应该将库文件放在C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\路径下。 2. 下载TensorRT 在完成CUDA和cuDNN的安装后,就可以下载TensorRT了。首先,进入NVIDIA官方网站(https://developer.nvidia.com/nvidia-tensorrt-download)下载TensorRT软件包。下载完成后,解压缩到您喜欢的目录中。例如,将TensorRT解压缩到C:\TensorRT路径下。 3. 配置环境变量 接下来,要将TensorRT的路径添加到环境变量中。在Windows环境中,打开“控制面板”->“系统和安全”->“系统”,然后点击“高级系统设置”->“环境变量”按钮。在“系统变量”中,找到“Path”变量并点击“编辑”按钮。在“变量值”框中添加TensorRT的bin和lib路径,例如:C:\TensorRT\bin;C:\TensorRT\lib; 4. 安装Python包 在安装Python之前,需要将Anaconda环境添加到环境变量中。如果您没有安装Anaconda环境,请先下载并安装Anaconda。在Windows环境中,打开“控制面板”->“系统和安全”->“系统”,然后点击“高级系统设置”->“环境变量”按钮。在“用户变量”中,找到“Path”变量并点击“编辑”按钮。在“变量值”框中添加Anaconda的路径,例如:C:\ProgramData\Anaconda3\Scripts;C:\ProgramData\Anaconda3\; 然后,通过pip命令安装TensorRT Python包。在Anaconda命令行窗口中,输入以下命令: pip install tensorrt 5. 测试安装 完成TensorRT Python包的安装后,可以使用Python脚本测试安装是否成功。创建一个新的Python脚本,并将以下代码复制并粘贴: import tensorrt as trt print(trt.__version__) 保存脚本后运行,如果输出正确的TensorRT版本号,则表明安装成功。可以使用TensorRT创建和优化神经网络模型了。 综上所述,TensorRT在Windows环境中的安装步骤如上所述。安装前需要确认CUDA和cuDNN已成功安装,安装时需要添加环境变量并使用pip工具安装TensorRT Python包。 ### 回答3: TensorRT是一个可用于高性能深度学习推理的软件库,可以在GPU上进行加速。对于Windows系统和Python用户来说,安装TensorRT相对来说比较简单,但也需要一定的操作步骤,下面将详细介绍如何安装TensorRT。 首先,需要在NVIDIA官网上下载TensorRT的安装程序,这里提供的是TensorRT 5.1.5版本的下载地址:https://developer.nvidia.com/nvidia-tensorrt-5x-download,选择对应的Windows版本,下载后进行安装。 其次,安装完成后需要配置TensorRT环境变量,将TensorRT的bin目录添加到PATH环境变量中,这样就能够在命令行中使用TensorRT相关命令了。同样需要将TensorRT的include和lib目录添加到对应的环境变量中,以便在调用TensorRT库时能够正确编译。 接着,安装TensorRTPython包,可以通过pip安装,打开命令行直接输入以下指令: ``` pip install tensorrt ``` 安装完成后,调用TensorRT就可以在Python中使用了。此外,还需要安装对应的TensorFlow和Python版本,以及NVIDIA的CUDA和cuDNN软件包,以便与TensorRT一起使用。 最后,验证TensorRT的安装是否成功。在Python中导入TensorRT库,进行简单的模型推理测试。如果能够成功进行推理操作,那么就说明TensorRT的安装已经成功了。 总之,TensorRT在Windows系统下的安装还是比较简单的,只需要按照上述步骤进行操作即可。当然,安装过程中也有可能会遇到一些问题,比如环境变量没有设置正确等,这时就需要仔细查看错误信息进行调整了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值