onnx-tensorrt安装时遇到的问题

我使用的docker镜像是 nvcr.io/nvidia/tensorrt 19.03-py3 6053535b43bc
首先安装 apt-get install libprotobuf-dev protobuf-compiler ,满足环境protobuf
下载onnx-tensorrt最新master分支,使用cmake命令如下:

cmake -DCUDA_INCLUDE_DIRS=/usr/local/cuda/include -DTENSORRT_ROOT=/opt/tensorrt .. -DGPU_ARCHS="61"

当然,我gpu是1070ti,所以是61,其余的自己查看
DCUDA_INCLUDE_DIRS也要添加,否则会有drive_type.h找不到

cv2

cv2需要一些Lib库才能运行,所以需要添加

apt-get install libsm6
apt-get install libxrender1
apt-get install libxext-dev
VS YOLOv5 ONNX TensorRT C是一个在深度学习领域中比较常见的技术对比问题。下面我将以300字的篇幅来回答这个问题。 首先,YOLOv5是一种基于深度学习的目标检测算法,它具有高精度和快速处理速度的优势。而ONNX(Open Neural Network Exchange)是一种用于在不同深度学习框架之间进行模型转换和共享的开放式格式,TensorRT是一个用于高效推理的深度学习库。 在使用YOLOv5的模型,我们可以将其转换为ONNX格式,以便在不同的深度学习框架之间进行共享和使用。而TensorRT则可以进一步优化模型的推理过程,提高其处理速度和效率。 与YOLOv5 ONNX相比,YOLOv5 TensorRT C更加注重于模型的优化和加速。使用TensorRT C可以在不损失模型精度的前提下,通过对模型的计算图进行优化和剪枝,提高模型的推理速度和性能。这对于实应用场景,尤其是边缘计算和嵌入式设备来说非常重要。 虽然YOLOv5 ONNX TensorRT C有其优势,但也存在一些限制。首先,使用TensorRT库需要进行专门的安装和配置,需要一定的技术储备。而且,模型优化过程中的一些参数调整和优化策略需要一定的经验和实践。此外,TensorRT C适用于特定硬件平台和操作系统,可能会在部署过程中遇到一些兼容性问题。 综上所述,YOLOv5 ONNX TensorRT C是一种用于深度学习模型优化和加速的技术组合,可以提高模型的处理速度和性能。然而,使用需要注意安装和配置的复杂性,以及一些可能的兼容性问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值