安装 jetson-inference, 下载模型时,一直卡着不动

如果您是 nano 板的小白;

如果您不能科学上网的话;

如果您在安装 jetson-inference,下载 ssd-mobilenet-v2 模型时,一直卡着不动的话

那您看这篇文章就蛮适合的!

 

一、安装 jetson-inference 的步骤:

 

1、安装后续会用到的工具:

sudo apt-get install git cmake

注:nano 的系统中默认是安装 git 的,所以大家可以不安装 git,只安装 cmake。

 

2、克隆 jetson-inference 的代码,并更新 submodule :

git clone https://github.com/dusty-nv/jetson-inference
cd jetson-inference
git submodule update --init

 

3、切换模型和 pytorch 的安装源:

sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/download-models.sh 
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/install-pytorch.sh

注:这一步很关键,如果不改的安装源的话,在后面提示安装模型的时候,会因为墙的原因,导致我们链接不上 nvidia.app.box.com ,从而导致下载模型的时候,一直卡在终端界面,没有任何进度条显示!

 

4、第三步执行完成后,就可以执行下面的编译命令了:

mkdir build   # 创建 build 目录
cd build      # 进入到 build 目录下
cmake ..      # 执行编译

注:编译的过程稍微要花上个大几分钟,不着急,慢慢等会就好。

 

5、编译好了后,会自动弹出安装模型的绿色提示框,此时你就可以根据需求选择安装的模型即可;

注:上下键用来切换模型、空格键用来切换当前模型是否安装(模型前面的括号有*号,表示安装该模型)、左右键用来切换执行安装和退出安装的命令;

 

6、模型安装好了后,会接着弹出是否安装 pytorch 的绿色提示框,需要的可以点击安装;

 

二、参考的链接:

http://www.gpus.cn/gpus_list_page_techno_support_content?id=38

https://www.bilibili.com/video/BV1F7411F7H2?from=search&seid=15990900794985186661

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值