前言
这个项目感觉不是很完整,踩了不少坑,特此记录一下.
我的环境:
系统 : RHEL8
C++ compiler version : 8.2.1
Tensorrt版本 : 6.0.5.1(想装7的,公司网络不行太难下载下来了;这个安装比较简单,可以查看其它人写的弄)
GPU : P4000
搭建步骤
~~git clone --recursive https://github.com/onnx/onnx-tensorrt.git~~ #离线便去掉
#将前言里的官方代码下载到本地,记住要根据你安装的tensorrt选择合适的版本,我选的是6.0
cd onnx-tensorrt-6.0
mkdir build
cd build
此时需要将onnx下载并拷贝到./onnx-tensorrt-6.0/third_party(你可以发现里面有个空的onnx文件夹)中,继续敲命令.
#<tensorrt_install_dir>对应的是trt的路径,-DGPU_ARCHS对应的是显卡的算力*10(可以在[这里](https://developer.nvidia.com/cuda-gpus))查看
#例如:
cmake .. -DTENSORRT_ROOT=/home/deep_learning/tensorrt/TensorRT-6.0.1.5 -DGPU_ARCHS="61"
make -j8
sudo make install
开始测试
cd ~/jetson-inference/build/aarch64/bin/
/*用c++的方式测试 */
./imagenet-console granny_smith_1.jpg output_1.jpg
###用python的方式测试
./imagenet-console.py granny_smith_1.jpg output_1.jpg
然后可以在命令行中可以看到检测过程, 在该文件夹下看到检测结果output_1.jpg