ubuntu18.04 安装 TensorRT 和 ONNXRuntime

一、ONNXRuntime-gpu 和 TensorRT 的安装需要注意 cuda 和 cudnn 的版本 是否适配

   1.安装 cuda 和 cudnn (具体查看这篇文章

   2.查看 版本是否适配具体详见 官网

    3. 查看适配的TensorRT版本

二、 安装 TensorRT   7.2.1

1. 下载合适的版本(官网)

(1)从这里下载18.04对应的tar包 (deb包要求cuda也是deb安装)

2. TensorRT 安装 (官网)

(1)打开配置文件gedit ~/.bashrc将tensorrt库添加到环境变量,另外将tensorrt的更目录加入环境变量,方便后面调试例程

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/dxy/TensorRT-7.2.1.6/lib
export PATH=$PATH:/home/dxy/TensorRT-7.2.1.6

(2)保存并关闭文件,刷新环境变量

source ~/.bashrc

(3)安装python的TensorRT wheel文件

cd ~/TensorRT-7.2.1.6/python

(4)安装 python3.6 版本的 whl 文件

python3 -m pip install tensorrt-7.2.1.6-cp36-none-linux_x86_64.whl

(5)安装python uff 的 wheel 文件,转到 uff 目录执行:

cd ~/TensorRT-7.2.1.6/uff
python3 -m pip install uff-0.6.9-py2.py3-none-any.whl 

(6)安装python graphsurgeon 的wheel文件,转到graphsurgeon目录执行:

cd ~/TensorRT-7.2.1.6/graphsurgeon
python3 -m pip install graphsurgeon-0.4.5-py2.py3-none-any.whl 

(7)安装python onnx-graphsurgeon的wheel文件,转到onnx-graphsurgeon目录执行: 

cd ~/TensorRT-7.2.1.6/onnx_graphsurgeon
python3 -m pip install onnx_graphsurgeon-0.2.6-py2.py3-none-any.whl 

    注:这一步出现问题可参考以下方法

              输入以下指令

sudo python -m pip install --upgrade --force pip
sudo pip install setuptools==33.1.1

         成功安装

(8)验证是否安装成功

(9)例程测试

cd ~/TensorRT-7.2.1.6/samples/sampleMNIST
make

cd ~/TensorRT-7.2.1.6/data/mnist
python3 ./download_pgms.py

cd ~/TensorRT-7.2.1.6/bin
./sample_mnist

 三、安装  ONNXRuntime-gpu

1. 进入ONNXRuntime的 github 下载源码(根据上面的版本适配表下载合适的源码)

2. 进入onnxruntime的代码目录,

(1)进入代码目录后,切换版本分支

git checkout v1.8.0

        拉取子项:

git submodule update --init --recursive

(2)编译CPU版本,命令如下:

./build.sh --skip_tests --config Release --build_shared_lib

(3)编译GPU,命令如下:

./build.sh --skip_tests --use_cuda --config Release --build_shared_lib --parallel --cuda_home /usr/local/cuda-11.0 --cudnn_home /usr/local/cuda-11.0

 注:期间会出现 cmake 版本过低的报错, 需升级 cmake 版本(可参考这篇文章

 3. 编译 ONNXRuntime 中的 tensorrt,命令如下:

./build.sh --build_shared_lib --skip_tests --config Release --use_cuda --cudnn_home /usr/local/cuda/ --cuda_home /usr/local/cuda  --use_tensorrt --tensorrt_home /home/dxy/TensorRT-7.2.1.6
  • 3
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
可以按照以下步骤安装onnxruntime-gpu: 1. 确保你的GPU支持CUDA和cuDNN,并且已经安装了CUDA和cuDNN。 2. 安装依赖项: ``` sudo apt-get update sudo apt-get install -y git cmake build-essential libprotobuf-dev protobuf-compiler libprotobuf-dev libprotoc-dev libopencv-dev ``` 3. 克隆onnxruntime-gpu仓库: ``` git clone --recursive https://github.com/microsoft/onnxruntime.git ``` 4. 进入onnxruntime目录: ``` cd onnxruntime ``` 5. 创建build目录并进入: ``` mkdir build cd build ``` 6. 配置编译选项: ``` cmake .. -DCMAKE_BUILD_TYPE=Release -DCMAKE_INSTALL_PREFIX=/usr/local -Donnxruntime_USE_CUDA=ON -Donnxruntime_CUDA_HOME=/usr/local/cuda -Donnxruntime_CUDA_INCLUDE_DIRS=/usr/local/cuda/include -Donnxruntime_CUDA_LIB_DIRS=/usr/local/cuda/lib64 -Donnxruntime_USE_TENSORRT=OFF ``` 其中,-Donnxruntime_USE_CUDA=ON表示使用CUDA,-Donnxruntime_CUDA_HOME、-Donnxruntime_CUDA_INCLUDE_DIRS、-Donnxruntime_CUDA_LIB_DIRS分别指定CUDA的安装路径和头文件路径、库文件路径。 7. 编译并安装: ``` make -j$(nproc) sudo make install ``` 这里使用了make -j$(nproc)来并行编译,可以加快编译速度。 8. 安装完毕后,可以测试一下onnxruntime-gpu是否正常工作: ``` cd ../tools/ci_build/github/linux/docker/scripts ./run_onnx_tests.sh -e gpu ``` 如果测试通过,则说明onnxruntime-gpu已经安装成功了。 注意:onnxruntime-gpu的安装可能会因为各种原因失败,需要根据具体错误信息进行调试。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值