如果您是 nano 板的小白;
如果您不能科学上网的话;
如果您在安装 jetson-inference,下载 ssd-mobilenet-v2 模型时,一直卡着不动的话;
那您看这篇文章就蛮适合的!
一、安装 jetson-inference 的步骤:
1、安装后续会用到的工具:
sudo apt-get install git cmake
注:nano 的系统中默认是安装 git 的,所以大家可以不安装 git,只安装 cmake。
2、克隆 jetson-inference 的代码,并更新 submodule :
git clone https://github.com/dusty-nv/jetson-inference
cd jetson-inference
git submodule update --init
3、切换模型和 pytorch 的安装源:
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/download-models.sh
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/install-pytorch.sh
注:这一步很关键,如果不改的安装源的话,在后面提示安装模型的时候,会因为墙的原因,导致我们链接不上 nvidia.app.box.com ,从而导致下载模型的时候,一直卡在终端界面,没有任何进度条显示!
4、第三步执行完成后,就可以执行下面的编译命令了:
mkdir build # 创建 build 目录
cd build # 进入到 build 目录下
cmake .. # 执行编译
注:编译的过程稍微要花上个大几分钟,不着急,慢慢等会就好。
5、编译好了后,会自动弹出安装模型的绿色提示框,此时你就可以根据需求选择安装的模型即可;
注:上下键用来切换模型、空格键用来切换当前模型是否安装(模型前面的括号有*号,表示安装该模型)、左右键用来切换执行安装和退出安装的命令;
6、模型安装好了后,会接着弹出是否安装 pytorch 的绿色提示框,需要的可以点击安装;
二、参考的链接:
http://www.gpus.cn/gpus_list_page_techno_support_content?id=38
https://www.bilibili.com/video/BV1F7411F7H2?from=search&seid=15990900794985186661