Onnx_TensorRT离线安装过程记录

前言

这个项目感觉不是很完整,踩了不少坑,特此记录一下.

官方代码

我的环境:
系统 : RHEL8
C++ compiler version : 8.2.1
Tensorrt版本 : 6.0.5.1(想装7的,公司网络不行太难下载下来了;这个安装比较简单,可以查看其它人写的弄)
GPU : P4000

搭建步骤

~~git clone --recursive https://github.com/onnx/onnx-tensorrt.git~~ #离线便去掉
#将前言里的官方代码下载到本地,记住要根据你安装的tensorrt选择合适的版本,我选的是6.0
cd onnx-tensorrt-6.0
mkdir build
cd build

此时需要将onnx下载并拷贝到./onnx-tensorrt-6.0/third_party(你可以发现里面有个空的onnx文件夹)中,继续敲命令.

#<tensorrt_install_dir>对应的是trt的路径,-DGPU_ARCHS对应的是显卡的算力*10(可以在[这里](https://developer.nvidia.com/cuda-gpus))查看
#例如:
cmake .. -DTENSORRT_ROOT=/home/deep_learning/tensorrt/TensorRT-6.0.1.5 -DGPU_ARCHS="61"
make -j8
sudo make install

开始测试

cd ~/jetson-inference/build/aarch64/bin/
/*用c++的方式测试 */ 
./imagenet-console granny_smith_1.jpg output_1.jpg
###用python的方式测试
./imagenet-console.py granny_smith_1.jpg output_1.jpg

然后可以在命令行中可以看到检测过程, 在该文件夹下看到检测结果output_1.jpg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值