NVIDIA Jetson 环境安装指导 PyTorch | Conda | cudnn | docker

本文适用于Jetson Nano、TX1/TX2、Xavier 和 Orin系列的设备,供大家参考。

1、PyTorch不同版本安装

这里适用于Jetson Nano、TX1/TX2、Xavier 和 Orin ,需要JetPack 4.2以上。

下载地址:PyTorch for Jetson - Jetson & Embedded Systems / Announcements - NVIDIA Developer Forums

这些pip wheel 是为 ARM aarch64 架构构建的,下载后是一个xxx.whl文件

然后用 pip install xxx.whl 进行安装就可以啦~

比如安装torch 2.3,可以选择两个版本(CUDA12.2、或者CUDA12.4)

需要注意的是 JetPack对应的版本是6,才能安装torch 2.3

如果上面网址中没找到最新的torch版本

请参考下面的网址:

https://pypi.jetson-ai-lab.dev/

比如,系统的CUDA版本是12.6的,点击进去进行查找

然后搜索一个关键字,比如“torch”就可以下载啦

 2、Jetson 安装 Conda

(推荐)清华源下载地址:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/

 选择aarch64架构的,然后下载运行安装就可以啦~

或者去官网下载,也是可以的https://www.anaconda.com/download/success

3、适用于Jetson的AI容器

开源地址:https://github.com/dusty-nv/jetson-containers/tree/master

通过构建docker,为 NVIDIA Jetson 🚀🤖 提供最新的 AI/ML 软件包

下面是一些主流的模型和框架,完整列表可以参阅 packages 目录

MLpytorch tensorflow jax onnxruntime deepstream holoscan CTranslate2 JupyterLab
LLMSGLang vLLM MLC AWQ transformers text-generation-webui ollama llama.cpp llama-factory exllama AutoGPTQ FlashAttention DeepSpeed bitsandbytes xformers
VLMllava llama-vision VILA LITA NanoLLM ShapeLLM Prismatic xtuner
VITNanoOWL NanoSAM Segment Anything (SAM) Track Anything (TAM) clip_trt
RAGllama-index langchain jetson-copilot NanoDB FAISS RAFT
L4Tl4t-pytorch l4t-tensorflow l4t-ml l4t-diffusion l4t-text-generation
CUDAcupy cuda-python pycuda numba opencv:cuda cudf cuml
RoboticsCosmos Genesis ROS LeRobot OpenVLA 3D Diffusion Policy Crossformer MimicGen OpenDroneMap ZED
Graphicsstable-diffusion-webui comfyui nerfstudio meshlab pixsfm gsplat
Mambamamba mambavision cobra dimba videomambasuite
Speechwhisper whisper_trt piper riva audiocraft voicecraft xtts
Home/IoThomeassistant-core wyoming-whisper wyoming-openwakeword wyoming-piper

下面是一些示例demo: 

在 NVIDIA Jetson AGX Orin 上使用 LLaVA-1.5 13B 进行多模态语音聊天(容器:NanoLLM

在 NVIDIA Jetson AGX Orin 上与 Llama-2-70B 进行交互式语音聊天(容器:NanoLLM)

NVIDIA Jetson 上的实时多模态 VectorDB(容器:nanodb)

Live Llava 2.0 - Jetson Orin 上的 VILA + 多模态 NanoDB(容器:NanoLLM

4、Jetson 部署推理

开源地址:https://github.com/dusty-nv/jetson-inference?tab=readme-ov-file

该项目使用 TensorRT 在 C++ 或 Python 的 GPU 上运行优化网络,并使用 PyTorch 训练模型。

支持的 DNN 视觉基元包括用于图像分类的 imageNet、用于对象检测的 detectNet、用于语义分割的 segNet、用于姿势估计的 poseNet 和用于动作识别的 actionNet

提供了从实时摄像机源进行流式传输、使用 WebRTC 制作 Web 应用程序以及支持 ROS/ROS2 的示例。

下面是不同视觉任务的推理代码参考文档:

C++Python
Image RecognitionimageNetimageNet
Object DetectiondetectNetdetectNet
SegmentationsegNetsegNet
Pose EstimationposeNetposeNet
Action RecognitionactionNetactionNet
Background RemovalbackgroundNetactionNet
Monocular DepthdepthNetdepthNet

PS:有其他的问题可以先在论坛查找,基本能解决大部分问题

https://forums.developer.nvidia.com/

分享完成~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一颗小树x

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值