前几天老黄发布了tensorRT 7.0, 对于模型服务器部署来说,tensorRT是真的香啊。先放官网链接,https://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html。
先介绍一下TensorRT
TensorRT的核心就是一个深度学习的高性能C++的推理库, 基本适配主流的训练框架,如Tensorflow, Caffe, Pytorch, MXNet。
Some training frameworks such as TensorFlow have integrated TensorRT so that it can be used to accelerate inference within the framework. Alternatively, TensorRT can be used as a library within a user application. It includes parsers for importing existing models from Caffe, ONNX, or TensorFlow, and C++ and Python APIs for building models programmatically.
TensorRT 7.0的安装
这里介绍在ubuntu下的两个安装方式:deb和tar安装。
一、deb安装:
注意deb安装需要sudo权限,没有sudo权限的下面可以不用看,直接看第二种安装方式。
- 先从 https://developer.nvidia.com/tensorrt 官网下载一个 tensorRT 的 deb版本, 这里跟下载cudnn一样, 需要进行验证才能下载
注意本博客介绍的第一种安装方式需要下载deb的包,tar是第二种安装方式,建议先把两个都下载下来。
2)按照TensorRT的版本:这里nvidia的官网写的很繁琐,可以直接dpkg -i 安装下载的deb安装包,然后记得把key加进来
os=”ubuntu1x04”
tag=”cudax.x-trt7.x.x.x-ga-yyyymmdd”
sudo dpkg -i nv-tensorrt-repo-${os}-${tag}_1-1_amd64.deb
sudo apt-key add /var/nv-tensorrt-repo-${tag}/7fa2af80.pub
sudo apt-get update
sudo apt-get install tensorrt
If using Python 2.7:
sudo apt-get