tensorrt_v8.2.3.0与onnx_v1.14.0的mmdeploy_v1.14.0环境配置搭建

参考官方文档:Linux-x86_64 下构建方式 — mmdeploy 1.2.0 文档

基础环境版本:

torch:1.12.1

cuda:11.3

cmake:3.16.3

g++:9.4.0

pycuda:2022.2.2

1.安装cmkae>=3.14.0

  1. wget https://github.com/Kitware/CMake/releases/download/v3.20.0/cmake-3.20.0-linux-x86_64.tar.gz 
  2. tar -xzvf cmake-3.20.0-linux-x86_64.tar.gz
  3. sudo ln -sf $(pwd)/cmake-3.20.0-linux-x86_64/bin/* /usr/bin/

2.安装g++ ,gcc

sudo add-apt-repository ppa:ubuntu-toolchain-r/test

sudo apt-get update

sudo apt-get install gcc-7

sudo apt-get install g++-7

3.安装mmcv

#所有export操作通过gedit ~/.bashrc ,在文本中添加,pwd为当前路径(获取当前路径后pwd改为获取的路径)

  1. export cu_version=cu113             # cuda 11.3对应113,版本根据自己cuda版本选择
  2. export torch_version=torch1.21 #torch版本同理
  3. pip install -U openmim
  4. mim install mmengine
  5. mim install "mmcv>=2.0.0rc2"

4.安装open-cv>=3.0

sudo apt-get install libopencv-dev 

#ubuntu>=18.04,若小于18.04参考OpenCV: Installation in Linu

5.安装pplcv  #用到cuda需要安装

#注直接下载zip解压进行如下操作可能会报错,git clone测试通过

  1. git clone https://github.com/openppl-public/ppl.cv.git
  2. cd ppl.cv
  3. export PPLCV_DIR=$(pwd)
  4. git checkout tags/v0.7.0 -b v0.7.0
  5. ./build.sh cuda

6.安装onnxruntime>=1.8.1

  1. pip install onnxruntime==1.8.1
  2. wget https://github.com/microsoft/onnxruntime/releases/download/v1.8.1/onnxruntime-linux-x64-1.8.1.tgz
  3. tar -zxvf onnxruntime-linux-x64-1.8.1.tgz
  4. cd onnxruntime-linux-x64-1.8.1
  5. export ONNXRUNTIME_DIR=$(pwd)
  6. export LD_LIBRARY_PATH=$ONNXRUNTIME_DIR/lib:$LD_LIBRARY_PATH

7.TensorRT安装

选择TensorRT需求版本下载tar.gz文件

#以8.2.3.0为例

  1. cd /the/path/of/tensorrt/tar/gz/file
  2. tar -zxvf TensorRT-8.2.3.0.Linux.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz

#选择cp37,cp38,cp39对应python版本

  1. pip install TensorRT-8.2.3.0/python/tensorrt-8.2.3.0-cp38-none-linux_x86_64.whl
  2. export TENSORRT_DIR=$(pwd)/TensorRT-8.2.3.0
  3. export LD_LIBRARY_PATH=$TENSORRT_DIR/lib:$LD_LIBRARY_PATH
  4. pip install pycuda

8.cuDNN

选择cuDNN版本

#以cudnn11.3为例

  1. cd /the/path/of/cudnn/tgz/file
  2. tar -zxvf cudnn-11.3-linux-x64-v8.2.1.32.tgz
  3. export CUDNN_DIR=$(pwd)/cuda
  4. export LD_LIBRARY_PATH=$CUDNN_DIR/lib64:$LD_LIBRARY_PATH
  5. source ~/.bashrc

9.下载编译MMdeploy

  1. git clone -b main https://github.com/open-mmlab/mmdeploy.git MMDeploy
  2. cd MMDeploy

#不执行此步骤会编译报错

  1. git submodule update --init --recursive
  2. export MMDEPLOY_DIR=$(pwd)

mkdir -p build && cd build

#根据需求编译,如下指令为tensorrt与onnx,需更改-Dpplcv_DIR为自己路径

#参考cmake选项

  1. cmake .. -DCMAKE_CXX_COMPILER=g++-7 -DMMDEPLOY_BUILD_SDK=ON -DMMDEPLOY_BUILD_EXAMPLES=ON -DMMDEPLOY_BUILD_SDK_PYTHON_API=ON -DMMDEPLOY_TARGET_DEVICES="cuda;cpu" -DMMDEPLOY_TARGET_BACKENDS="ort;trt" -Dpplcv_DIR=/home/gongsheng/motan/ppl.cv/cuda-build/install/lib/cmake/ppl -DTENSORRT_DIR=${TENSORRT_DIR} -DCUDNN_DIR=${CUDNN_DIR} -DONNXRUNTIME_DIR=${ONNXRUNTIME_DIR} -DMMDEPLOY_CODEBASES=all
  2. make -j$(nproc) && make install
  3. cd path-to-mmdeploy
  4. pip install -v -e .

pip list查看mmdeploy是否安装成功

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值