环境准备流程(参考EVM220A2主板手册):
1 在ubuntu环境下安装开发环境
2 安装交叉编译器(arm64和m0),这里每次执行一下 source /etc/profile指令,不然默认交叉编译器版本较低,无法编译程序
3 sdk包编译以及源码单独编译,只要涉及到编译都要用到交叉编译器,不然会报错,这一部分编译可以输出一些文件用于板子系统升级,非必要环节。
连接方式:板子通过网线和路由器连接,通过type-c口和主机连接,主机通过网线和路由器连接,在同一局域网下用ssh通信传输文件,账号root 密码ematech,注意主机上要打开ssh服务。
(模型转换推理思路来源于华为atlas开发板,将某一种框架的模型转换成板载上适配的模型格式,比如tensorflow框架的.tf模型转换成板子上适配的.om格式的模型,利用atc工具包完成这一转换,然后将模型拷贝到板载上进行推理。)
模型的转换(以pytorch为例,参考pytorch环境搭建和模型转换):
1 解压pytorch的镜像软件,加载docker镜像
2 使用提供的脚本启动容器,这里脚本应该是tools文件夹下的docker_pytorch_11.1.sh,跟说明书的不一样。
3 激活pytorch环境
source torch/venv3/pytorch/bin/activate
4 把程序从本地上传到docker,执行
docker cp [OPTIONS] SRC_PATH|- CONTAINER:DEST_PATH
5 运行mlu_forward.py,即在当前目前生成一个deepsort.cambricon deepsort.cambricon_twins两个文件,其中deepsort.cambricon文件就是离线模型文件,可以放到板卡进行推理
pytorch 模型转换步骤也是先进行模型量化,然后再转换成离线模型,它的转换步骤如下:
- 编写模型的量化程序,然后在推理阶段使用寒武纪提供的量化接口 mlu_quantize.quantize_dynamic_mlu进行量化处理;
- 然后在推理的时候,再使用mlu_quantize.quantize_dynamic_mlu接口进行离线模型的转换。
(如果有MLU270的话可以在仿真环境下运行,一般的开发是MLU270显卡插在主板上,然后板载上MLU220进行推理,所以目前没有办法在主机上测试。)
例程中mlu_forward.py是量化模型和离线转换程序,如果转换其他的模型,基本都是按照这个转换流程进行转换。
模型推理(参考demo/pipeline_demo下的README.md):
在pc机器上交叉编译,推理代码例程都是c++格式,交叉编译得到可执行文件然后建议将整个工程目录拷贝在板子的linux系统下的任意目录下,然后执行运行脚本。(在板载上运行的时候提示没有找到libglog.so.0,板子上很多linux下的指令用不了,最后通过export LD_LIBRARY_PATH的方式解决)
(作为一个小白,目前只是简单测试了一下,感觉应用于实际工程还有很长一段路,欢迎互相交流学习)