开坑Jetson Nano(四):跑通官方jetson-inference

前言

之前一直想跑,找了各种各样的方法,反正就是没跑通。个人感觉主要是以下几点原因:

  1. jetson-inference下载模型和pytorch时需要fanqiang
  2. 目前版本对python3.7编译不完全

官方代码

参考文章

  1. 模型下载
  2. 搭建教程

搭建步骤

###确认系统上已安装 git 与 cmake
sudo apt install -y git cmake
###将 git 的代码复制一份到设备上(建议用这种方式,不要自行下载zip包)
git clone https://github.com/dusty-nv/jetson-inference
###进入jetson-inference目录
cd jetson-inference
###更新代码版本
git submodule update --init
###切换到国内镜像站
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/download-models.sh 
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/install-pytorch.sh
###回到标准的执行步骤,到 build 目录
mkdir build && cd build
###cmake .. 进行环境配置,期间会看到python3.7 wasn't found,不过没影响
cmake ../

模型下载
pytorch下载

###上述命令打印的最后一行如果是“Build files have been written to: xxxxx/build” 的信息表明配置成功
###将[模型下载](https://blog.csdn.net/Jackkii/article/details/99628721)中下载下来的模型包全部解压到###~/jetson-inference/data/networks/文件夹下
###继续编译工程
make -j4
###继续往下执行
sudo make install

大功告成

开始测试

cd ~/jetson-inference/build/aarch64/bin/
/*用c++的方式测试 */ 
./imagenet-console granny_smith_1.jpg output_1.jpg
###用python的方式测试
./imagenet-console.py granny_smith_1.jpg output_1.jpg

然后可以在命令行中可以看到检测过程, 在该文件夹下看到检测结果output_1.jpg

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值