在NVIDIA Jetson计算平台中创建Tensorrt容器

当前环境:jetpack4.4DP、jetson nano

注:适用于jetpack>=4.2和其他jetson开发板,如Xavier AGX、NX、TX2


前言

需要在jetpack4.4DP环境的Jetson开发板里安装Tensorrt的docker容器(Tensorrt基于jetpack4.4DP)。官网提供的是Dockerfile的安装方式,详情见官网。不知道NVIDIA有没有更新这个bug:拉取的基础镜像是基于X86架构,而Jetson是基于ARM架构。安装难点在于Tensorrt官网上没有提供基于Jetson的单独安装包,所以对于这一块就比较陌生。下面是我的解决方案,仅供参考。此方案可适用于jetpack的其他版本,只需要在配置环境时选择自己要用的版本即可。

一、拉取docker基础镜像卸载基础镜像中的CUDA

1、这里将官方提供的tensorflow镜像作为基础镜像,镜像地址 https://ngc.nvidia.com/catalog/containers/nvidia:l4t-tensorflow,在jetson nano命令窗口输入指令

sudo docker pull nvcr.io/nvidia/l4t-tensorflow:r32.4.3-tf1.15-py3

注:jetpack的版本匹配问题,上述镜像是jetpack4.4DP
2、进去docker并删除cuda
(1)使用以下指令进入docker

sudo docker run -it nvcr.io/nvidia/l4t-tensorflow:r32.4.2-tf1.15-py3 /bin/bash

(2)由于我们接下来要重新安装cuda,所以使用以下指令删除原始cuda

sudo apt-get --purge remove “cublas” “cuda*”

二、下载jetson nano 所需要的安装包

由于官网暂时没有提供关于Jetson的对应安装文件,所以我们需要从SDK Manager上下载到本地,然后再进行安装。

1、在一台ubuntu host上安装sdkmanager,下载对应的jetson和jetpack安装文件到host本地。如下图所示,勾选下方的Download now. Install later。左侧可以看到下载路径。
在这里插入图片描述
2、下载完成后,安装文件打包并传送给容器。

三、配置TensorRT环境

首先进入容器,进入到上述打包的安装文件目录下,安装方式与X86架构的有所不同,请按顺序安装。
1、安装CUDA
进入下载好的文件包中依次输入以下指令

sudo dpkg -i cuda-repo-l4t-10-2-local-10.2.89_1.0-1_arm64.deb
sudo apt-key add /var/cuda-repo-10-2-local-10.2.89/7fa2af80.pub
sudo apt-get -y update
sudo apt-get -y install cuda-toolkit-10-2

2、安装Cudnn
进入下载好的文件包中依次输入以下指令

sudo dpkg -i libcudnn8_8.0.0.180-1+cuda10.2_arm64.deb
sudo dpkg -i libcudnn8-dev_8.0.0.180-1+cuda10.2_arm64.deb
sudo dpkg -i libcudnn8-doc_8.0.0.180-1+cuda10.2_amd64.deb

3、安装TensorRT
进入下载好的文件包中依次输入以下指令

sudo dpkg -i libnvinfer7_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvinfer-dev_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvparsers7_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvparsers-dev_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvinfer-plugin7_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvinfer-plugin-dev_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvonnxparsers7_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvonnxparsers-dev_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvinfer-bin_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i libnvinfer-samples_7.1.0-1+cuda10.2_all.deb
sudo dpkg -i libnvinfer-doc_7.1.0-1+cuda10.2_all.deb
sudo dpkg -i graphsurgeon-tf_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i uff-converter-tf_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i python3-libnvinfer_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i python3-libnvinfer-dev_7.1.0-1+cuda10.2_arm64.deb
sudo dpkg -i tensorrt_7.1.0.16-1+cuda10.2_arm64.deb

4、验证

dpkg -l | grep TensorRT

如下图所示则安装成功
在这里插入图片描述

  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
基于NVIDIA Jetson平台的人工智能实例开发入门需要掌握以下几个关键步骤: 1. 准备工作:首先,购买一台NVIDIA Jetson开发套件,并安装相应的JetPack软件开发工具包。该工具包集成了CUDA加速库、各种深度学习框架和开发工具,使得在Jetson平台上进行人工智能开发变得更加方便。 2. 硬件设置:将Jetson开发套件正确连接到电源和显示器,并通过USB线缆将其与电脑连接。确保电脑和Jetson之间可以正常通信。 3. 软件设置:在Jetson平台安装和配置所需的软件包,如TensorFlow、PyTorch或Caffe等深度学习框架。根据需要,还可以安装其他相关的软件包和库。 4. 数据集准备:收集和整理适合训练的数据集。根据所需的人工智能应用领域,选择合适的数据集,并对其进行预处理和标注。 5. 模型训练:使用所选的深度学习框架,在Jetson平台上进行模型训练。通过调节模型的超参数和优化算法,提高模型的准确性和性能。 6. 模型部署:训练完成后,将训练好的模型部署到Jetson平台上。根据实际需求,可以选择将模型部署为实时应用程序、嵌入式系统或者边缘计算设备等形式。 7. 测试和优化:对部署好的模型进行测试和优化。根据实际情况,检查模型在不同数据集或场景下的表现,并根据测试结果进行模型的调整和改进。 8. 扩展和应用:在基础的人工智能实例上进行扩展和应用。根据具体需求,可以通过增加数据集、调整模型架构或者更换算法来扩展人工智能应用的功能和性能。 总结来说,基于NVIDIA Jetson平台的人工智能实例开发入门需要熟悉硬件设置、软件配置、数据集准备、模型训练、模型部署、测试和优化等关键步骤。通过不断的实践和学习,可以逐步提升在Jetson平台上进行人工智能开发的能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值