学习笔记:Jetson nano的模型部署

目录

一、简单介绍及准备工作

二、ubantu安装

三、简单的终端使用及换源

四、自身资源监测及tensorrt

五、下载编译jetson-inference

六、Yolov4的部署


一、简单介绍及准备工作

 

英伟达的 Jetson Nano是一块用于深度学习或者计算机视觉的开发板,不同型号的内存和性能不同。主方向上具有四个usb接口和一个HDMI视频接口一个电源接口(type-c),网线接口,一个micro-B-usb,右侧是40引针,左侧是csi摄像头,顶上是自己买的小风扇,周围是亚克力板保护。

准备工作:1.鼠标、键盘    2.64GB或128GB的sd卡和读卡器 

                  3.type-c充电线 4.网线(或者无线网卡)

二、ubantu安装

1.镜像的烧录

首先进入英伟达的官网,找到适合你硬件的镜像。

官网地址,很卡:Jetson Download Center | NVIDIA Developer

其次下载一个烧制软件:我用的balenaEtcher。操作很简单

镜像烧制成功后,插入jetson的主方向的后面的卡槽中。

2.开机

连接电源,连接外设,就开机了。开机设置就跟新手机一样,选择语言地区。重要的是设置的开机密码得记住。

三、简单的终端使用及换源

1.打开风扇

打开termianal,输入:sudo sh -c 'echo xxx > /sys/devices/pwm-fan/target_pwm'

XXX : 范围 0-255 代表风速 

风扇开机启动,终端依次输入:

        1.cd /etc

        2.sudo touch rc.local(新建文件)

        3.sudo gedit rc.local(打开)

        4.在打开的文本编辑框输入  

         5.赋予开机启动权限

        sudo chmod 755 /etc/rc.local

2.换源

换源是为了上网下东西,它自己的软件库是外网,很慢。

sudo cp /etc/apt/sources.list    /etc/apt/sources.list.bak (复制原来的软件源文件取名bak)

sudo gedit /etc/apt/sources.list  全部删了在添上自己的(我用的清华源)

 sudo apt-get update (更新)

sudo apt-get install python3-pip(下载pip)

3.pip换源

sudo mkdir .pip (建立隐藏文件夹)

sudo cd .pip

sudo touch pip.conf(建立个.conf文件)

sudo gedit pip.conf(加上自己的源)

 

四、自身资源监测及tensorrt

1.sudo pip3 install jetson-stats

sudo jtop

下面是其界面:

 2.tensorrt

对于tensorrt我的理解是,它可以支持pytorch和tensorflow等框架,所以我们进行推理时,不用搭建pytorch等框架,就可以推理。

 其例子目录在/usr/src/tensorrt/samples,可以尝试编译一下。

 

五、下载编译jetson-inference

终端顺序输入:

1.sudo apt upgrade

2.sudo apt install cmake

3.mkdir ~/workspace

4.cd workspace

5.git clone --recursive https://gitee.com/weikun-xuan/jetson-inference.git (问的b站小伙伴)

6.cd jetson-inference/

7.git submodule update --init

8.cd tools

9.$sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' download-models.sh(模型下载国内源)

10.cd ..(返回上一级目录)

11.mkdir build  cd build(建个文件夹并进入路径)

12.cmake.. (出现以下界面)

 此步为安装模型包,本人建议【全部取消】,不然会有些慢,之后我们可以去https://github.com/dusty-nv/jetson-inference/releases 手动下载 

继续

 选择python3的那个。

13.make

之后就可以进入到workspace/jetson-inference/build/aarch64/bin目录下跑模型了,里面有detectnet和segnet等一些脚本,终端运行即可。

六、Yolov4的部署

下载代码(readme可以看看):GitHub - AlexeyAB/darknet: YOLOv4 / Scaled-YOLOv4 / YOLO - Neural Networks for Object Detection (Windows and Linux version of Darknet )

下载权重(RT不能训练)

Releases · AlexeyAB/darknet · GitHub

下载好后,解压并且把权重文件放入到darknet-master文件夹下。

点开Makefile文件,修改参数

终端darknet-master路径下:make

终端darknet-master路径,测试:./darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights data/eagle.jpg

 

 

  • 4
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值