deepstream tensorrt默认路径

本文档介绍了如何查看DeepStream安装时自带的TensorRT版本,以及如何配置nvcc环境变量。同时,通过查找头文件和库文件的方式确定TensorRT的路径,并列举了相关库文件清单。
摘要由CSDN通过智能技术生成

目录

查看deepstream tensorrt版本

配置nvcc

查看tensorrt路径:

lib清单:


deepstream 安装时,tensorrt可能一起自动安装了,

查看版本:

tensorrt下载目录:

https://developer.nvidia.com/nvidia-tensorrt-download

查看deepstream tensorrt版本

deepstream-app --version-all

配置nvcc

export PATH=/usr/local/cuda-10.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:$LD_LIBRARY_PATH

生效:source ~/.bashrc
验证:nvcc -V

原文链接:https://blog.csdn.net/qq

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
对于使用DeepSORTTensorRT的C++开发,你可以按照以下步骤进行: 1. 安装TensorRT:首先,你需要在你的系统上安装NVIDIA TensorRT。你可以从NVIDIA官方网站上下载TensorRT并按照安装指南进行安装。 2. 准备模型:DeepSORT是一个目标跟踪算法,它通常与目标检测模型一起使用。如果你已经有了目标检测模型,可以跳过这一步。否则,你需要选择和训练一个适合你任务的目标检测模型,并将其转化为TensorRT可接受的格式。你可以使用TensorRT提供的工具或者使用其他库(如ONNX Runtime)来完成这个步骤。 3. 创建TensorRT引擎:一旦你准备好了目标检测模型,你需要使用TensorRT来创建一个推理引擎。这个引擎将负责加载和执行模型。你可以使用TensorRT的C++ API来编写代码,加载模型并创建引擎。 4. 处理输入和输出:在C++代码中,你需要定义输入和输出的格式,并为它们分配内存。对于DeepSORT来说,输入通常是图像或视频帧,输出是目标的跟踪结果。 5. 执行推理:在C++代码中,你可以使用TensorRT提供的API来执行推理。将输入数据传递给引擎,然后获取输出结果。 6. 解析和可视化结果:最后,你可以解析输出结果,并将其可视化,以便进行进一步的分析或展示。 这只是一个简单的概述,具体实现的细节会根据你的具体需求和使用的库而有所不同。你可以查阅TensorRT的文档和示例代码,以获取更详细的信息和指导。希望这些步骤能对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI算法网奇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值