EVM220_A2开发笔记

环境准备流程(参考EVM220A2主板手册):

1 在ubuntu环境下安装开发环境
2 安装交叉编译器(arm64和m0),这里每次执行一下 source /etc/profile指令,不然默认交叉编译器版本较低,无法编译程序
3 sdk包编译以及源码单独编译,只要涉及到编译都要用到交叉编译器,不然会报错,这一部分编译可以输出一些文件用于板子系统升级,非必要环节。

连接方式:板子通过网线和路由器连接,通过type-c口和主机连接,主机通过网线和路由器连接,在同一局域网下用ssh通信传输文件,账号root 密码ematech,注意主机上要打开ssh服务。
请添加图片描述

(模型转换推理思路来源于华为atlas开发板,将某一种框架的模型转换成板载上适配的模型格式,比如tensorflow框架的.tf模型转换成板子上适配的.om格式的模型,利用atc工具包完成这一转换,然后将模型拷贝到板载上进行推理。)

模型的转换(以pytorch为例,参考pytorch环境搭建和模型转换):

1 解压pytorch的镜像软件,加载docker镜像
2 使用提供的脚本启动容器,这里脚本应该是tools文件夹下的docker_pytorch_11.1.sh,跟说明书的不一样。
3 激活pytorch环境
source torch/venv3/pytorch/bin/activate
请添加图片描述

4 把程序从本地上传到docker,执行
docker cp [OPTIONS] SRC_PATH|- CONTAINER:DEST_PATH
5 运行mlu_forward.py,即在当前目前生成一个deepsort.cambricon deepsort.cambricon_twins两个文件,其中deepsort.cambricon文件就是离线模型文件,可以放到板卡进行推理
请添加图片描述
请添加图片描述

pytorch 模型转换步骤也是先进行模型量化,然后再转换成离线模型,它的转换步骤如下:

  • 编写模型的量化程序,然后在推理阶段使用寒武纪提供的量化接口 mlu_quantize.quantize_dynamic_mlu进行量化处理;
  • 然后在推理的时候,再使用mlu_quantize.quantize_dynamic_mlu接口进行离线模型的转换。

(如果有MLU270的话可以在仿真环境下运行,一般的开发是MLU270显卡插在主板上,然后板载上MLU220进行推理,所以目前没有办法在主机上测试。)

例程中mlu_forward.py是量化模型和离线转换程序,如果转换其他的模型,基本都是按照这个转换流程进行转换。

模型推理(参考demo/pipeline_demo下的README.md):

在pc机器上交叉编译,推理代码例程都是c++格式,交叉编译得到可执行文件然后建议将整个工程目录拷贝在板子的linux系统下的任意目录下,然后执行运行脚本。(在板载上运行的时候提示没有找到libglog.so.0,板子上很多linux下的指令用不了,最后通过export LD_LIBRARY_PATH的方式解决)
请添加图片描述
(作为一个小白,目前只是简单测试了一下,感觉应用于实际工程还有很长一段路,欢迎互相交流学习)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值