TensorRT 安装与使用及Pytorch的TensorRT部署

1. Tensorrt安装

最近考虑对已经训练好的Pytorch模型进行Float16优化,以达到部署时inference减小耗时,显存开销。可是很多博客写的乱七八糟,我这里整理一份自己安装的过程。供大家参考。

首先我们需要查看自己服务器或者GPU是什么版本的驱动,然后才可以安装对应版本的Tensorrt

1.1 查看cuda版本

[~]$ nvcc -V

nvcc: NVIDIA ® Cuda compiler driver
Copyright © 2005-2017 NVIDIA Corporation
Built on Fri_Sep__1_21:08:03_CDT_2017
Cuda compilation tools, release 9.0, V9.0.176

下载 Tensorrt6.x
注:下载时,需要注册Nvidia的developer的账号,填写对应的开发者调查问卷信息。不一定非要下载6.x版本,目前已更新到7.x,不过考虑环境兼容问题,所以先选择6.x版本。

1.2 安装

pip install 'pycuda>=2017.1.1'
  • 7
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
您好!对于使用TensorRTPyTorch进行Docker部署的问题,我可以给您一些指导。 首先,您需要安装Docker并准备一个基础的Docker镜像。可以从Docker Hub上获取一个包含PyTorchTensorRT的镜像,也可以使用一个基本的Python镜像,并在其中安装所需的软件包。 然后,您可以将PyTorch模型转换为TensorRT引擎,以提高推理性能。TensorRT提供了一些工具和API来执行此转换过程。您可以使用PyTorch的torch2trt库来将PyTorch模型转换为TensorRT引擎,具体步骤如下: 1. 安装torch2trt库:`pip install torch2trt` 2. 导入所需的库: ```python import torch from torch2trt import torch2trt ``` 3. 加载PyTorch模型并创建一个示例输入: ```python model = ... # 加载PyTorch模型 dummy_input = ... # 创建示例输入 ``` 4. 将PyTorch模型转换为TensorRT引擎: ```python model_trt = torch2trt(model, [dummy_input]) ``` 5. 保存TensorRT引擎: ```python torch.save(model_trt.state_dict(), 'model_trt.pth') ``` 接下来,您可以将这个TensorRT引擎用于推理。在Docker中运行推理代码时,您需要将模型加载到内存中并进行推理。具体的推理代码取决于您的应用程序和需求。 最后,您可以使用Docker的构建和运行命令来构建和运行您的Docker容器。确保在Dockerfile中包含所需的依赖项,并将模型文件和推理代码复制到容器中。然后,使用`docker build`命令构建镜像,并使用`docker run`命令运行容器。 希望这些指导对您有所帮助!如果您有任何其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值