从零开始学jetson TX2 ----flash tx2 core

introduction

打算用jetson tx2做一个MPC的控制项目。

Jetson TX2 官网资源的构成

从FAQ开始入手:
了解TX2 的基础
然后入手 JETSON tx2 的wiki
https://elinux.org/Jetson_TX2

配置TX2的运行环境

下载jetpack 给tx2刷机

刷机教程参考:https://www.youtube.com/watch?v=s1QDsa6SzuQ
step1: https://developer.nvidia.com/embedded/jetpack 下载sdKmanager
step2:开始刷机,注意选择manual installation,在tx2处于安全模式下,安装jetpack component
step3:等待刷机结束

远程登录tx2

  • 使用nomachine,根据nomachine的官网介绍,nomachine的免费版本是不支持ssh远程登录到tx2,只能用NX:
    https://www.nomachine.com/AR11K00751。
    因而只能在tx2上也安装一个nomachine,两台机器通过NX的协议进行通信。
  • 先通过ssh测试一下两者是否链接好,并且可以测试一下文件的传递:
    测试连接:ssh nvidia@192.168.xx.xx
    测试文件传输:scp /Downloads/* nvidia@192.168.xx.xx:/home/nvidia/Downloads
  • 在tx2上安装nomachine
    启动nomachine的server,在主机host的nomachine上,此时就可以看到server:nvidia的信息了,点击连接就可以了。

先将JETSON TX2 安装到新的SSD上

硬件部分

JETSON TX2的SSD插槽在侧边,ssd如果采用直插的方式,容易碰坏了。所以需要SSD延长线。
购买的SATA 光驱延长线。遇到的坑,买的ssd数据线不带电源线;光驱和ssd都使用的是SATA 3.0协议,所以是兼容的。

软件部分

1.使用GParted 将新插上的ssd的旧分区删除掉
2. 按照视频开始挂载SSD:
https://www.youtube.com/watch?v=KxZ-e6G7INg
step1: GPT挂载分区$ sudo parted /dev/sda mklabel gpt
step2: 打开系统软件disks,选择ssd,并且新建分区,JetsonSSD-256;
3.将emmc的文件拷贝到ssd上,并且修改boot配置
$ sudo cp -ax / ‘/media/nvidia/JetsonSSD-256’ && sync
cd /boot/extlinux
备份一下config文件
$ sudo scp extlinux.conf extlinux.conf.origin
修改config文件
$ sudo gedit extlinux.config

LABEL primary
MENU LABEL primary kernel SSD
LINUX /boot/Image
INITRD /boot/initrd
APPEND ${cbootargs} root=/dev/sda1 rw rootwait
LABEL eMMC
MENU LABEL eMMC kernel
LINUX /boot/Image
INITRD /boot/initrd
APPEND ${cbootargs} root=/dev/mmcblk0p1 rw rootwait

4.编译lInux 内核
有两种内核的编译方式,一种是host的交互编译方式:
按照jetsonhacks 大神的方式,采用直接在tx2编译内核
在他的脚本上进行修改:https://github.com/jetsonhacks/buildJetsonTX2Kernel
注意修改的地方1:在./makekernel.sh的脚本里,讲make xx 改成make -j4 xx
注意修改的地方2:将生成的image 最后移动到emmc的boot/Image目录下
并且在emmc的boot/extlinux 下修改extlinux.conf,指定编译好的Image名字如ImageSSD

给JETSON TX2 安装RT PREEMPT

内核编译的时候出了一堆问题,还在bug中。

给jetson tx2 安装vs code

参考链接:https://devtalk.nvidia.com/default/topic/1049448/jetson-nano/quick-build-guide-for-visual-studio-code-on-the-nano/1
遇到的坑是,一定要关闭UI,否则会报错:jetson tx2 vscode ERR! stack Error: gyp failed with exit code: 1

# Yarn package repo
curl -sS https://dl.yarnpkg.com/debian/pubkey.gpg | sudo apt-key add -
echo "deb https://dl.yarnpkg.com/debian/ stable main" | sudo tee /etc/apt/sources.list.d/yarn.list

# Install packages
sudo apt update
sudo apt install -y libx11-dev libxkbfile-dev libsecret-1-dev fakeroot npm curl nodejs nodejs-dev yarn

# Clone repo
git clone https://github.com/Microsoft/vscode.git

pushd vscode

# Reduce max_old_space_size
sed -i 's/4095/2048/g' package.json

# Kill the UI to free up memory ### WARNING THIS WILL DROP YOU TO A CONSOLE
sudo systemctl isolate multi-user

# Fetch deps, build, and create deb
yarn
yarn run gulp vscode-linux-arm64-min
yarn run gulp vscode-linux-arm64-build-deb
sudo dpkg -i ./.build/linux/deb/arm64/deb/code-oss_1.??.?-*_arm64.deb

# Reboot
code-oss
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 首先,要手动安装Jetson TX2中的CUDA和CuDNN,需要按照以下步骤进行操作: 1. 下载CUDA Toolkit: - 首先,通过NVIDIA官方网站下载适用于Jetson TX2的CUDA Toolkit。 - 在下载页面上选择与您的Jetson TX2版本相对应的CUDA Toolkit版本,并下载该版本的.run文件。 2. 安装CUDA Toolkit: - 将下载的CUDA Toolkit文件拷贝到Jetson TX2设备上。 - 打开终端,进入到CUDA Toolkit文件所在的目录。 - 运行以下命令,以设置安装选项并启动安装过程: ``` chmod +x cuda_<version>_linux.run sudo ./cuda_<version>_linux.run ``` - 按照安装向导的指示进行操作,接受许可协议并选择相应的安装选项。 - 完成安装后,根据提示将必要的环境变量添加到系统配置文件中(如~/.bashrc)。 3. 下载CuDNN库文件: - 访问NVIDIA官方网站并下载与安装的CUDA Toolkit版本相对应的CuDNN库文件。 - 将下载的CuDNN库文件拷贝到Jetson TX2设备上。 4. 安装CuDNN库文件: - 将CuDNN库文件解压到一个指定目录中,例如'/usr/local/cuda/'。 - 打开终端,进入CuDNN库文件所在的目录。 - 运行以下命令以将CuDNN库文件拷贝到CUDA Toolkit的安装目录中: ``` sudo cp cuda/include/cudnn.h /usr/local/cuda/include/ sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/ sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn* ``` 5. 配置环境变量: - 打开终端,编辑~/.bashrc文件: ``` nano ~/.bashrc ``` - 在文件末尾添加以下内容,并保存退出: ``` export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64 export CUDA_HOME=/usr/local/cuda ``` - 运行以下命令使环境变量配置生效: ``` source ~/.bashrc ``` 完成以上步骤后,您应该成功地手动安装了Jetson TX2中的CUDA和CuDNN。您可以通过在终端上运行`nvcc -V`来验证CUDA是否正确安装,并通过运行`cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2`来验证CuDNN是否正确安装。 ### 回答2: 首先,Jetson TX2是一款高性能边缘计算设备,用于深度习、AI和计算机视觉等领域。CUDA和cuDNN是用于加速计算的关键软件,在Jetson TX2上手动安装这两个软件需要以下步骤: 1. 下载CUDA和cuDNN:首先,从NVIDIA官方网站下载适用于Jetson TX2的CUDA和cuDNN版本。确保选择与Jetson TX2硬件兼容的版本。 2. 安装CUDA:将下载的CUDA安装包复制到Jetson TX2上,并解压缩文件。然后,运行安装脚本来设置CUDA环境变量并安装CUDA。 3. 配置环境变量:为了正确地配置CUDA和cuDNN,需要设置环境变量。在终端中输入以下命令以打开.bashrc文件: ``` sudo nano ~/.bashrc ``` 然后,在文件的末尾添加以下行: ``` export CUDA_HOME=/usr/local/cuda export PATH=/usr/local/cuda/bin:${PATH} export LD_LIBRARY_PATH=/usr/local/cuda/lib64:${LD_LIBRARY_PATH} ``` 保存并关闭文件,然后运行以下命令以使更改生效: ``` source ~/.bashrc ``` 4. 安装cuDNN:将下载的cuDNN安装包复制到Jetson TX2上,并解压缩文件。然后,将cuDNN库文件复制到CUDA的安装目录中。使用以下命令完成此操作: ``` sudo cp cuda/include/cudnn.h /usr/local/cuda/include sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64 sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn* ``` 5. 验证安装:在终端中运行以下命令以验证CUDA和cuDNN是否安装成功: ``` nvcc -V ``` 如果输出中显示了CUDA版本信息,则说明CUDA安装成功。然后,可以使用深度习框架(如TensorFlow,PyTorch等)来验证cuDNN的安装。 这些是手动安装CUDA和cuDNN的基本步骤。确保按照官方文档和说明进行操作,并根据自己的需求进行相应的配置和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值