TensorRT -- github


此存储库包含 NVIDIA TensorRT 的开源软件 (OSS) 组件。它包括 TensorRT 插件和解析器(Caffe 和 ONNX)的源代码,以及演示 TensorRT 平台用法和功能的示例应用程序。这些开源软件组件是 TensorRT 通用版 (GA) 版本的子集,具有一些扩展和错误修复。

有关对 TensorRT-OSS 的代码贡献,请参阅我们的贡献指南和编码指南。
有关 TensorRT-OSS 版本附带的新增功能和更新的摘要,请参阅变更日志。
如需业务咨询,请联系 researchinquiries@nvidia.com
有关媒体和其他查询,请通过 hmarinez@nvidia.com 联系 Hector Marinez
需要企业支持? NVIDIA AI Enterprise 软件套件为 TensorRT 提供 NVIDIA 全球支持。查看 NVIDIA LaunchPad,免费访问一组使用托管在 NVIDIA 基础设施上的 TensorRT 的动手实验室。

加入 TensorRT 和 Triton 社区,随时了解最新的产品更新、错误修复、内容、最佳实践等。

预构建的 TensorRT Python 包
我们提供了 TensorRT Python 包以便于安装。
安装:

下载 TensorRT OSS
git clone -b main https://github.com/nvidia/TensorRT TensorRT
cd张量RT
git 子模块更新 --init --recursive
(可选 - 如果不使用 TensorRT 容器)指定 TensorRT GA 发布构建路径
如果使用 TensorRT OSS 构建容器,TensorRT 库预安装在 /usr/lib/x86_64-linux-gnu 下,您可以跳过此步骤。

否则从 NVIDIA 开发者专区下载并提取 TensorRT GA 版本。

示例:带有 cuda-12.0 的 x86-64 上的 Ubuntu 20.04

cd ~/下载
tar -xvzf TensorRT-8.6.1.6.Linux.x86_64-gnu.cuda-12.0.tar.gz
export TRT_LIBPATH=`pwd`/TensorRT-8.6.1.6
(可选 - 仅适用于 Jetson 构建)下载 JetPack SDK
下载并启动 JetPack SDK 管理器。使用您的 NVIDIA 开发者帐户登录。
选择平台和目标操作系统(例如:Jetson AGX Xavier、Linux Jetpack 5.0),然后单击继续。
在下载和安装选项下更改下载文件夹并选择立即下载,稍后安装。同意许可条款并单击继续。
将提取的文件移动到 TensorRT-OSS /docker/jetpack_files 文件夹中。
设置构建环境
对于 Linux 平台,我们建议您生成一个用于构建 TensorRT OSS 的 docker 容器,如下所述。对于本机构建,请安装必备系统包。

生成 TensorRT-OSS 构建容器。
可以使用提供的 Dockerfile 和构建脚本生成 TensorRT-OSS 构建容器。构建容器配置为开箱即用地构建 TensorRT OSS。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值