TensorRT的安装以及可能遇到的问题

安装流程及问题

参考官网链接:https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html

这里以ubuntu系统为例,首先上TensorRT官网把对应版本的安装包下载下来,可能需要登录,版本选择DEB,找到自己对应的Ubuntu版本跟cuda版本。

ubuntu版本查看:

cat /etc/issue

cuda版本查看:

cat /usr/local/cuda/version.txt

也可以使用nvidia-smi命令查看,右上角可以看到版本号

 下载完安装包之后,按照官网的流程来安装,下面命令的文件名就是下载的安装包的文件名。

$ sudo dpkg -i  
nv-tensorrt-repo-ubuntu1x04-cudax.x-trt5.1.x.x-ga-yyyymmdd_1-1_amd64.deb
$ sudo apt-key add /var/nv-tensorrt-repo-cudax.x-trt5.1.x.x-ga-yyyymmdd/7fa2af80.pub

$ sudo apt-get update
$ sudo apt-get install tensorrt

可能遇到的问题

在最后一条命令安装tensorrt的时候,可能遇到如下问题:

The following packages have unmet dependencies: 
 tensorrt : Depends: libnvinfer5 (= 5.1.5-1+cuda10.0) but 5.1.5-1+cuda10.1 is to be installed 
            Depends: libnvinfer-dev (= 5.1.5-1+cuda10.0) but 5.1.5-1+cuda10.1 is to be installed
E: Unable to correct problems, you have held broken packages. 

这个可能是官网有更高的版本了,非要让你装更高的,但我们又不想升级cuda,只想装对应的版本。按下面命令,安装上面对应版本的依赖库:

$ sudo apt-get install libnvinfer5=5.1.5-1+cuda10.0
$ sudo apt-get install libnvinfer-dev=5.1.5-1+cuda10.0

$ sudo apt-get install tensorrt

把上面错误中对应的版本号复制过来安装就好,之后再安装tensorrt即可。

之后安装python接口,如果是python2.7:

$ sudo apt-get install python-libnvinfer-dev

如果是python3.x:

$ sudo apt-get install python3-libnvinfer-dev

如果打算在TensorFlow中用TensorRT:

$ sudo apt-get install uff-converter-tf

都是官网的命令,最后验证一下:

$ dpkg -l | grep TensorRT

会出现一些信息,我直接copy官网的了:

ii  graphsurgeon-tf	5.1.5-1+cuda10.1	amd64	GraphSurgeon for TensorRT package
ii  libnvinfer-dev	5.1.5-1+cuda10.1	amd64	TensorRT development libraries and headers
ii  libnvinfer-samples	5.1.5-1+cuda10.1	amd64	TensorRT samples and documentation
ii  libnvinfer5		5.1.5-1+cuda10.1	amd64	TensorRT runtime libraries
ii  python-libnvinfer	5.1.5-1+cuda10.1	amd64	Python bindings for TensorRT
ii  python-libnvinfer-dev	5.1.5-1+cuda10.1	amd64	Python development package for TensorRT
ii  python3-libnvinfer	5.1.5-1+cuda10.1	amd64	Python 3 bindings for TensorRT
ii  python3-libnvinfer-dev	5.1.5-1+cuda10.1	amd64	Python 3 development package for TensorRT
ii  tensorrt	5.1.5.x-1+cuda10.1	amd64	Meta package of TensorRT
ii  uff-converter-tf	5.1.5-1+cuda10.1	amd64	UFF converter for TensorRT package

可能遇到的问题

在python中import tensorrt的时候,可能会找不到模块,No module named tensorrt。会出现这种情况一般是自己使用自己的python环境,或者使用anaconda。因为上面安装python模块时使用apt-get安装,会安装到系统指定的python中。我们需要把tensorrt安装到自己的python环境中。

首先在上面的官网把Tar文件下载下来,然后解压并安装python包:

$ tar -xzvf TensorRT-5.1.5.0.Ubuntu-16.04.5.x86_64-gnu.cuda-10.0.cudnn7.5.tar.gz
$ cd TensorRT-5.1.5.0/python
$ pip install tensorrt-5.1.5.0-cp27-none-linux_x86_64.whl

用自己环境对应的pip安装对应版本的python包,之后就可以import了。

  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: TensorRT是NVIDIA推出的深度学习推理引擎,可以在GPU上高效地运行深度学习模型。TensorRT支持Windows平台,可以通过以下步骤安装: 1. 安装CUDA和cuDNN:TensorRT需要依赖CUDA和cuDNN,需要先安装它们。可以从NVIDIA官网下载对应版本的CUDA和cuDNN,并按照官方文档进行安装。 2. 下载TensorRT:可以从NVIDIA官网下载对应版本的TensorRT下载完成后解压到指定目录。 3. 安装TensorRT Python API:TensorRT提供了Python API,可以通过pip安装。打开命令行窗口,输入以下命令: ``` pip install tensorrt ``` 4. 安装TensorRT UFF Parser:如果需要使用UFF格式的模型,需要安装TensorRT UFF Parser。可以通过pip安装。打开命令行窗口,输入以下命令: ``` pip install uff ``` 安装完成后,就可以在Windows平台上使用TensorRT了。 ### 回答2: TensorRT是NVIDIA推出的一个高效的深度神经网络推理引擎,可以大幅提升神经网络在GPU上的运行速度。TensorRT支持多种深度学习框架,如TensorFlow、Caffe和PyTorch等。在本文中,我们将探讨如何在Windows环境中使用Python安装TensorRT。 1. 准备工作 在安装TensorRT之前,需要先安装CUDA和cuDNN。TensorRT依赖于CUDA和cuDNN,并且需要使用与您的GPU型号相对应版本的CUDA和cuDNN。 首先,下载安装适合您GPU的CUDA软件包。然后,下载cuDNN库并将其解压缩到CUDA的安装目录中。例如,如果您的CUDA安装在C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1路径下,那么解压cuDNN库后应该将库文件放在C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\路径下。 2. 下载TensorRT 在完成CUDA和cuDNN的安装后,就可以下载TensorRT了。首先,进入NVIDIA官方网站(https://developer.nvidia.com/nvidia-tensorrt-download)下载TensorRT软件包。下载完成后,解压缩到您喜欢的目录中。例如,将TensorRT解压缩到C:\TensorRT路径下。 3. 配置环境变量 接下来,要将TensorRT的路径添加到环境变量中。在Windows环境中,打开“控制面板”->“系统和安全”->“系统”,然后点击“高级系统设置”->“环境变量”按钮。在“系统变量”中,找到“Path”变量并点击“编辑”按钮。在“变量值”框中添加TensorRT的bin和lib路径,例如:C:\TensorRT\bin;C:\TensorRT\lib; 4. 安装Python包 在安装Python之前,需要将Anaconda环境添加到环境变量中。如果您没有安装Anaconda环境,请先下载安装Anaconda。在Windows环境中,打开“控制面板”->“系统和安全”->“系统”,然后点击“高级系统设置”->“环境变量”按钮。在“用户变量”中,找到“Path”变量并点击“编辑”按钮。在“变量值”框中添加Anaconda的路径,例如:C:\ProgramData\Anaconda3\Scripts;C:\ProgramData\Anaconda3\; 然后,通过pip命令安装TensorRT Python包。在Anaconda命令行窗口中,输入以下命令: pip install tensorrt 5. 测试安装 完成TensorRT Python包的安装后,可以使用Python脚本测试安装是否成功。创建一个新的Python脚本,并将以下代码复制并粘贴: import tensorrt as trt print(trt.__version__) 保存脚本后运行,如果输出正确的TensorRT版本号,则表明安装成功。可以使用TensorRT创建和优化神经网络模型了。 综上所述,TensorRT在Windows环境中的安装步骤如上所述。安装前需要确认CUDA和cuDNN已成功安装安装时需要添加环境变量并使用pip工具安装TensorRT Python包。 ### 回答3: TensorRT是一个可用于高性能深度学习推理的软件库,可以在GPU上进行加速。对于Windows系统和Python用户来说,安装TensorRT相对来说比较简单,但也需要一定的操作步骤,下面将详细介绍如何安装TensorRT。 首先,需要在NVIDIA官网上下载TensorRT安装程序,这里提供的是TensorRT 5.1.5版本的下载地址:https://developer.nvidia.com/nvidia-tensorrt-5x-download,选择对应的Windows版本,下载后进行安装。 其次,安装完成后需要配置TensorRT环境变量,将TensorRT的bin目录添加到PATH环境变量中,这样就能够在命令行中使用TensorRT相关命令了。同样需要将TensorRT的include和lib目录添加到对应的环境变量中,以便在调用TensorRT库时能够正确编译。 接着,安装TensorRT的Python包,可以通过pip安装,打开命令行直接输入以下指令: ``` pip install tensorrt ``` 安装完成后,调用TensorRT就可以在Python中使用了。此外,还需要安装对应的TensorFlow和Python版本,以及NVIDIA的CUDA和cuDNN软件包,以便与TensorRT一起使用。 最后,验证TensorRT安装是否成功。在Python中导入TensorRT库,进行简单的模型推理测试。如果能够成功进行推理操作,那么就说明TensorRT安装已经成功了。 总之,TensorRT在Windows系统下的安装还是比较简单的,只需要按照上述步骤进行操作即可。当然,安装过程中也有可能遇到一些问题,比如环境变量没有设置正确等,这时就需要仔细查看错误信息进行调整了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值