cmake 交叉编译_一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署...

“OLDPAN博客”,侃侃而谈人工智能 深度酝酿优质原创文!

阅读本文需要 8 分钟

前言

在上一篇文章中,我们简单介绍了什么是TVM以及如何利用Relay IR去编译网络权重然后并运行起来。

18942ff16891f877452fc8ad5dfe9767.png
TVM

上述文章中的例子很简单,但是实际中我们更需要的是利用TVM去部署我们的应用么,最简单直接的就是在嵌入式系统中运行起我们的神经网络模型。例如树莓派。这才是最重要的是不是?所以嘛,在深入TVM之前还是要走一遍基本的实践流程的,也唯有实践流程才能让我们更好地理解TVM到底可以做什么。

所以嘛,在这篇文章中,主要介绍如果将自己的神经网络使用TVM编译,并且导出动态链接库文件,最后部署在树莓派端(PC端),并且运行起来。

环境搭建

环境搭建?有什么好讲的?

废话咯,你需要先把TVM的环境搭建出来才可以用啊,在上一篇文章中已经说过了,另外官方的安装教程最为详细,这里还是多建议看看官方的文档,很详细很具体重点把握的也很好。

但是还是要强调两点:

  • 需要安装LLVM,因为这篇文章所讲的主要运行环境是CPU(树莓派的GPU暂时不用,内存有点小),所以LLVM是必须的

  • 安装交叉编译器:

Cross Compiler

交叉编译器是什么,就是我可以在PC平台上编译生成可以直接在树莓派上运行的可执行文件。而在TVM中,我们需要利用交叉编译器在PC端编译模型并且优化,然后生成适用于树莓派(arm构架)使用的动态链接库。

有这个动态链接库,我们就可以直接调用树莓派端的TVM运行时环境去调用这个动态链接库,从而执行神经网络的前向操作了。

那么怎么安装呢?这里我们需要安装叫做/usr/bin/arm-linux-gnueabihf-g++的交叉编译器,在Ubuntu系统中,我们直接sudo apt-get install g++-arm-linux-gnueabihf即可,注意名称不能错,我们需要的是hf(Hard-float)版本。

安装完后,执行/usr/bin/arm-linux-gnueabihf-g++ -v命令就可以看到输出信息:

1prototype@prototype-X299-UD4-Pro:~/$ /usr/bin/arm-linux-gnueabihf-g++ -v
2Using built-in specs.
3COLLECT_GCC=/usr/bin/arm-linux-gnueabihf-g++
4COLLECT_LTO_WRAPPER=/usr/lib/gcc-cross/arm-linux-gnueabihf/5/lto-wrapper
5Target: arm-linux-gnueabihf
6Configured with: ../src/configure -v --with-pkgversion='Ubuntu/Linaro 5.4.0-6ubuntu1~16.04.9' --with-bugurl=file:///usr/share/doc/gcc-5/README.Bugs --enable-languages=c,ada,c++,java,go,d,fortran,objc,obj-c++ --prefix=/usr --program-suffix=-5 --enable-shared --enable-linker-build-id --libexecdir=/usr/lib --without-included-gettext --enable-threads=posix --libdir=/usr/lib --enable-nls --with-sysroot=/ --enable-clocale=gnu --enable-libstdcxx-debug --enable-libstdcxx-time=yes --with-default-libstdcxx-abi=new --enable-gnu-unique-object --disable-libitm --disable-libquadmath --enable-plugin --with-system-zlib --disable-browser-plugin --enable-java-awt=gtk --enable-gtk-cairo --with-java-home=/usr/lib/jvm/java-1.5.0-gcj-5-armhf-cross/jre --enable-java-home --with-jvm-root-dir=/usr/lib/jvm/java-1.5.0-gcj-5-armhf-cross --with-jvm-jar-dir=/usr/lib/jvm-exports/java-1.5.0-gcj-5-armhf-cross --with-arch-directory=arm --with-ecj-jar=/usr/share/java/eclipse-ecj.jar --disable-libgcj --enable-objc-gc --enable-multiarch --enable-multilib --disable-sjlj-exceptions --with-arch=armv7-a --with-fpu=vfpv3-d16 --with-float=hard --with-mode=thumb --disable-werror --enable-multilib --enable-checking=release --build=x86_64-linux-gnu --host=x86_64-linux-gnu --target=arm-linux-gnueabihf --program-prefix=arm-linux-gnueabihf- --includedir=/usr/arm-linux-gnueabihf/include
7Thread model: posix
8gcc version 5.4.0 20160609 (Ubuntu/Linaro 5.4.0-6ubuntu1~16.04.9) 

树莓派环境搭建

因为我们是在PC端利用TVM编译神经网络的,所以在树莓派端我们只需要编译TVM的运行时环境即可(TVM可以分为两个部分,一部分为编译时,另一个为运行时,两者可以拆开)。

这里附上官方的命令,注意树莓派端也需要安装llvm,树莓派端的llvm可以在llvm官方找到已经编译好的压缩包,解压后添加环境变量即可:

1git clone --recursive https://github.com/dmlc/tvm
2cd tvm
3mkdir build
4cp cmake/config.cmake build   # 这里修改config.cmake使其支持llvm
5cd build
6cmake ..
7make runtime

在树莓派上编译TVM的运行时并不需要花很久的时间。

完成部署

环境搭建好之后,就让我们开始吧~

2ab6aa622994eb4d38c2b1de08dc94a0.png
你懂得

首先我们依然需要一个自己的测试模型,在这里我使用之前训练好的,识别剪刀石头布手势的模型权重,然后利用Pytorch导出ONNX模型出来。具体的导出步骤可以看我之前的这两篇文章,下述两篇文章中使用的模型与本篇文章使用的是同一个模型。

  • 利用Pytorch的C++前端(libtorch)读取预训练权重并进行预测

  • Pytorch的C++端(libtorch)在Windows中的使用

1dbeffdd11cb87fadb504a87284de55f.png
(上图是之前的识别剪刀石头布的一个权重模型)

OK,那我们拥有了一个模型叫做mobilenetv2-128_S.onnx,这个模型也就是通过Pytorch导出的ONNX模型,利用Netron瞧一眼:

1584a0d3b4c7b220eedc9d0c3de6c411.png

整个模型的输入和输出上图写的都很清楚了。

测试模型

拿到模型后,我们首先测试模型是否可以正确工作,同上一篇介绍TVM的文章类似,我们利用TVM的PYTHON前端去读取我们的.onnx模型,然后将其编译并运行,最后利用测试图像测试其是否可以正确工作,其中核心代码如下:

 1onnx_model = onnx.load('../test/new-mobilenetv2-128_S.onnx')
2
3img = Image.open('../datasets/hand-image/paper.jpg').resize((128, 128))
4
5img = np.array(img).transpose((2, 0, 1)).astype('float32')  
6img = img/255.0           # 注意在Pytorch中的tensor范围是0-1
7x = img[np.newaxis, :]
8
9target = 'llvm'
10
11input_name = '0'      # 这里需要注意,因为我生成的.onnx模型的输入代号是0,所以这里改为0
12shape_dict = {input_name: x.shape}
13sym, params = relay.frontend.from_onnx(onnx_model, shape_dict)
14
15with relay.build_config(opt_level=3):
16    intrp = relay.build_module.create_executor('graph', sym, tvm.cpu(0), target)
17
18dtype = 'float32'
19func = intrp.evaluate(sym)
20
21# 输出推断的结果
22tvm_output = intrp.evaluate(sym)(tvm.nd.array(x.astype(dtype)), **params).asnumpy()
23max_index = tvm_output.argmax()
24print(max_index)

我这个模型输出的结果为三个手势的输出值大小(顺序分别为布、剪刀、石头),上述的代码打印出来的值为0,意味着可以正确识别paper.jpg输入的图像。说明这个转化过程是没有问题的。

导出动态链接库

上面这个步骤只是将.onnx模型利用TVM读取并且预测出来,如果我们需要部署的话我们就需要导出整个模型的动态链接库,至于为什么是动态链接库,其实TVM是有多种的导出模式的(也可以导出静态库),但是这里不细说了:

63eae12674083487f26daafbef509c52.png

总之我们的目标就是导出so动态链接库,这个链接库中包括了我们神经网络所需要的一切推断功能。

那么怎么导出呢?其实官方已经有很详细的导出说明。我这里不进行赘述了,仅仅展示核心的代码加以注释即可。

请看以下的代码:

 1#开始同样是读取.onnx模型
2
3onnx_model = onnx.load('../../test/new-mobilenetv2-128_S.onnx')
4img = Image.open('../../datasets/hand-image/paper.jpg').resize((128, 128))
5
6# 以下的图片读取仅仅是为了测试
7img = np.array(img).transpose((2, 0, 1)).astype('float32')
8img = img/255.0    # remember pytorch tensor is 0-1
9x = img[np.newaxis, :]
10
11# 这里首先在PC的CPU上进行测试 所以使用LLVM进行导出
12target = tvm.target.create('llvm')
13
14input_name = '0'  # change '1' to '0'
15shape_dict = {input_name: x.shape}
16sym, params = relay.frontend.from_onnx(onnx_model, shape_dict)
17
18# 这里利用TVM构建出优化后模型的信息
19with relay.build_config(opt_level=2):
20    graph, lib, params = relay.build_module.build(sym, target, params=params)
21
22dtype = 'float32'
23
24from tvm.contrib import graph_runtime
25
26# 下面的函数导出我们需要的动态链接库 地址可以自己定义
27print("Output model files")
28libpath = "../tvm_output_lib/mobilenet.so"
29lib.export_library(libpath)
30
31# 下面的函数导出我们神经网络的结构,使用json文件保存
32graph_json_path = "../tvm_output_lib/mobilenet.json"
33with open(graph_json_path, 'w') as fo:
34    fo.write(graph)
35
36# 下面的函数中我们导出神经网络模型的权重参数
37param_path = "../tvm_output_lib/mobilenet.params"
38with open(param_path, 'wb') as fo:
39    fo.write(relay.save_param_dict(params))
40# -------------至此导出模型阶段已经结束--------
41
42# 接下来我们加载导出的模型去测试导出的模型是否可以正常工作
43loaded_json = open(graph_json_path).read()
44loaded_lib = tvm.module.load(libpath)
45loaded_params = bytearray(open(param_path, "rb").read())
46
47# 这里执行的平台为CPU
48ctx = tvm.cpu()
49
50module = graph_runtime.create(loaded_json, loaded_lib, ctx)
51module.load_params(loaded_params)
52module.set_input("0", x)
53module.run()
54out_deploy = module.get_output(0).asnumpy()
55
56print(out_deploy)

上述的代码输出[[13.680096 -7.218611 -6.7872353]],因为输入的图像是paper.jpg,所以输出的三个数字第一个数字最大,没有毛病。

执行完代码之后我们就可以得到需要的三个文件

  • mobilenet.so

  • mobilenet.json

  • mobilenet.params

得到三个文件之后,接下来我们利用TVM的C++端读取并运行起来。

在PC端利用TVM部署C++模型

如何利用TVM的C++端去部署,官方也有比较详细的文档,这里我们利用TVM和OpenCV读取一张图片,并且使用之前导出的动态链接库去运行神经网络对这张图片进行推断。

我们需要的头文件为:

1#include 
2#include 
3#include 
4#include 
5#include 
6#include 
7#include 

其实这里我们只需要TVM的运行时,另外dlpack是存放张量的一个结构。其中OpenCV用于读取图片,而fstream则用于读取json和参数信息:

 1tvm::runtime::Module mod_dylib =
2    tvm::runtime::Module::LoadFromFile("../files/mobilenet.so");
3
4std::ifstream json_in("../files/mobilenet.json", std::ios::in);
5std::string json_data((std::istreambuf_iterator<char>(json_in)), std::istreambuf_iterator<char>());
6json_in.close();
7
8// parameters in binary
9std::ifstream params_in("../files/mobilenet.params", std::ios::binary);
10std::string params_data((std::istreambuf_iterator<char>(params_in)), std::istreambuf_iterator<char>());
11params_in.close();
12
13TVMByteArray params_arr;
14params_arr.data = params_data.c_str();
15params_arr.size = params_data.length();

在读取完信息之后,我们要利用之前读取的信息,构建TVM中的运行图(Graph_runtime):

1int dtype_code = kDLFloat;
2int dtype_bits = 32;
3int dtype_lanes = 1;
4int device_type = kDLCPU;
5int device_id = 0;
6
7tvm::runtime::Module mod = (*tvm::runtime::Registry::Get("tvm.graph_runtime.create"))
8        (json_data, mod_dylib, device_type, device_id);

然后利用TVM中函数建立一个输入的张量类型并且为它分配空间:

1DLTensor *x;
2int in_ndim = 4;
3int64_t in_shape[4] = {1, 3, 128, 128};
4TVMArrayAlloc(in_shape, in_ndim, dtype_code, dtype_bits, dtype_lanes, device_type, device_id, &x);

其中DLTensor是个灵活的结构,可以包容各种类型的张量,而在创建了这个张量后,我们需要将OpenCV中读取的图像信息传入到这个张量结构中:

1// 这里依然读取了papar.png这张图
2image = cv::imread("/home/prototype/CLionProjects/tvm-cpp/data/paper.png");
3
4cv::cvtColor(image, frame, cv::COLOR_BGR2RGB);
5cv::resize(frame, input,  cv::Size(128,128));
6
7float data[128 * 128 * 3];
8// 在这个函数中 将OpenCV中的图像数据转化为CHW的形式 
9Mat_to_CHW(data, input);

需要注意的是,因为OpenCV中的图像数据的保存顺序是(128,128,3),所以这里我们需要将其调整过来,其中Mat_to_CHW函数的具体内容是:

 1void Mat_to_CHW(float *data, cv::Mat &frame) 2{
3    assert(data && !frame.empty());
4    unsigned int volChl = 128 * 128;
5
6    for(int c = 0; c 3; ++c)
7    {
8        for (unsigned j = 0; j  9            data[c*volChl + j] = static_cast<float>(float(frame.data[j * 3 + c]) / 255.0);
10    }
11
12}

当然别忘了除以255.0因为在Pytorch中所有的权重信息的范围都是0-1。

在将OpenCV中的图像数据转化后,我们将转化后的图像数据拷贝到之前的张量类型中:

1// x为之前的张量类型 data为之前开辟的浮点型空间
2memcpy(x->data, &data, 3 * 128 * 128 * sizeof(float));

然后我们设置运行图的输入(x)和输出(y):

 1// get the function from the module(set input data)
2tvm::runtime::PackedFunc set_input = mod.GetFunction("set_input");
3set_input("0", x);
4
5// get the function from the module(load patameters)
6tvm::runtime::PackedFunc load_params = mod.GetFunction("load_params");
7load_params(params_arr);
8
9DLTensor* y;
10int out_ndim = 2;
11int64_t out_shape[2] = {1, 3,};
12TVMArrayAlloc(out_shape, out_ndim, dtype_code, dtype_bits, dtype_lanes, device_type, device_id, &y);
13
14// get the function from the module(run it)
15tvm::runtime::PackedFunc run = mod.GetFunction("run");
16
17// get the function from the module(get output data)
18tvm::runtime::PackedFunc get_output = mod.GetFunction("get_output");

此刻我们就可以运行了:

1run();
2get_output(0, y);
3
4// 将输出的信息打印出来
5auto result = static_cast<float*>(y->data);
6for (int i = 0; i 3; i++)
7    cout<endl;

最后的输出信息是

113.8204
2-7.31387
3-6.8253

可以看到,成功识别出了布这张图片,到底为止在C++端的部署就完毕了。

在树莓派上的部署

在树莓派上的部署其实也是很简单的,与上述步骤中不同的地方是我们需要设置target为树莓派专用:

1target = tvm.target.arm_cpu('rasp3b')

我们点进去其实可以发现rasp3b对应着-target=armv7l-linux-gnueabihf

 1trans_table = {
2    "pixel2":    ["-model=snapdragon835", "-target=arm64-linux-android -mattr=+neon"],
3    "mate10":    ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
4    "mate10pro": ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
5    "p20":       ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
6    "p20pro":    ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
7    "rasp3b":    ["-model=bcm2837", "-target=armv7l-linux-gnueabihf -mattr=+neon"],
8    "rk3399":    ["-model=rk3399", "-target=aarch64-linux-gnu -mattr=+neon"],
9    "pynq":      ["-model=pynq", "-target=armv7a-linux-eabi -mattr=+neon"],
10    "ultra96":   ["-model=ultra96", "-target=aarch64-linux-gnu -mattr=+neon"],
11}

还有一点改动的是,我们在导出.so的时候需要加入cc="/usr/bin/arm-linux-gnueabihf-g++",此时的/usr/bin/arm-linux-gnueabihf-g++为之前下载的交叉编译器。

1path_lib = '../tvm/deploy_lib.so'
2lib.export_library(path_lib, cc="/usr/bin/arm-linux-gnueabihf-g++")

这时我们就可以导出来树莓派需要的几个文件,之后我们将这几个文件移到树莓派中,随后利用上面说到的C++部署代码去部署就可以了。

大家关心的问题

看到这里想必大家应该还有很多疑惑,限于篇幅(写的有点累呀),这里讲几个比较重点的东西:

速度

这里可以毫不犹豫地说,对于我这个模型来说,速度提升很明显。在PC端部署中,使用TVM部署的手势检测模型的运行速度是libtorch中的5倍左右,精度还没有测试,但是在我用摄像头进行演示过程中并没有发现明显的区别。当然还需要进一步的测试,就不在这里多说了。

哦对了,在树莓派中,这个模型还没有达到实时(53ms),但是无论对TVM还是对我来说,依然还有很大的优化空间,实时只是时间关系。

层的支持程度

当然因为TVM还处于开发阶段,有一些层时不支持的,上文中的mobilenetv2-128_S.onnx模型一开始使用Relay IR前端读取的时候提示,TVM中没有flatten层的支持,而mobilenetv2-128_S.onnx中有一个flatten层,所以提示报错。

但是这个是问题吗?只要我们仔细看看TVM的源码,熟悉熟悉结构,就可以自己加层了,但其实flatten的操作函数在TVM中已经存在了,只是ONNX的前端接口没有展示出来,onnx前端展示的是batch_flatten这个函数,其实batch_flatten就是flatten的特殊版,于是简单修改源码,重新编译一下就可以成功读取自己的模型了。

后记

限于时间关系,就暂时说到这里,之后会根据自己的时间发布一些TVM的文章,TVM相关的中文文章太少了,自己就干脆贡献一点吧。不过真的很感谢TVM的工作,真的很强~

5e64d68885a58fab1052fb0082fa2654.gif

关注Oldpan博客,同步更新博客最新消息,持续酝酿深度学习质量文。

976380fde5210c690de24c17f0ae70ff.png

点击下方原文链接获取更多相关文章

如果感觉有收获,不妨分享一下吧~

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值