踩过的坑
1.**jetson系列不能用nvidia-smi指令。**需要安装jetson-stats打开jtop来查看GPU使用情况等,也可以查看CUDA/CUDNN等版本情况
2.用“普通”ubuntu的安装cuda、cudnn方法来安装jetson,我试了没成功,而且也比较麻烦。
一、安装jetson-stats
打开terminal
sudo apt-get install python3-pip
sudo -H pip3 install jetson-stats
安装完成之后直接在terminal中输入
jtop
即可启动(有些博客写需要重启,reboot一下)
二、CUDA/cuDNN安装
直接使用APT安装既简单又有效
1.CUDA
terminal输入
sudo apt-get install cuda-toolkit-10-2
安装完成之后,将以下复制到 .bashrc文件末尾
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-10.2/lib64
export PATH=$PATH:/usr/local/cuda-10.2/bin
export CUDA_HOME=$CUDA_HOME:/usr/local/cuda-10.2
可以手动打开.bashrc文件,也可以用命令直接打开
sudo gedit ~/.bashrc
2.cuDNN
首先查看仓库提供的cuDNN有哪一些。terminal输入
sudo apt-cache policy libcudnn8
如果没有的话可以查看
sudo apt-cache policy libcudnn7
以此类推
我NX的JetPack 4.5.1安装cuda-10.2之后libcudnn8只有一个版本.则键入
sudo apt-get install libcudnn8
即可。若有要选择版本的话
sudo apt-get install libcudnn8=(*.*.*.**+cuda*** )
括号中为你之前查看到的版本列表中选择。
验证CUDA/cuDNN安装
jtop
info中有显示CUDA/cudnn版本号既安装成功。可以用pytorch调用cuda、cudnn验证。
>>> import torch
>>> print(torch.__version__)
>>> print('CUDA available: ' + str(torch.cuda.is_available()))
>>> print('cuDNN version: ' + str(torch.backends.cudnn.version()))
>>> a = torch.cuda.FloatTensor(2).zero_()
>>> print('Tensor a = ' + str(a))
>>> b = torch.randn(2).cuda()
>>> print('Tensor b = ' + str(b))
>>> c = a + b
>>> print('Tensor c = ' + str(c))
本文档详细介绍了如何在Jetson系列设备上安装jetson-stats、CUDA 10.2和cuDNN,以及如何验证安装是否成功。通过使用APT安装方法,避免了使用nvidia-smi指令,并提供了修改.bashrc文件的指导。安装完成后,可以通过jtop和PyTorch进行验证。
793

被折叠的 条评论
为什么被折叠?



