如何基于香橙派AIpro将开源框架模型转换为昇腾模型

在前面的介绍中,我们知道了如何基于香橙派AIpro开发AI推理应用,也大致了解到在推理之前,需要把原始网络模型 (可能是 PyTorch 的、TensorFlow,可能是Caffe的等等) 转换成 .om 模型,然后才能调用昇腾的aclmdlExecute 等模型执行接口在香橙派AIpro进行模型推理。这个模型转换的过程就要用到 ATC 工具。

目前 ATC 工具直接支持从 Caffe、ONNX、TensorFlow 以及 MindSpore模型的转换,所以如果你的训练框架是 PyTorch,则需要做 torch.onnx.export 操作导出成ONNX模型后才能使用ATC工具。

01 ATC工具简介

昇腾张量编译器(Ascend Tensor Compiler,简称ATC)是昇腾模型转换工具,它可以将开源框架的网络模型(例如TensorFlow、ONNX等)转换为昇腾AI处理器支持的模型文件(.om格式),用于后续的模型推理。

模型转换过程中,ATC会进行算子调度优化、权重数据重排、内存使用优化等操作,对开源框架的网络模型做进一步调优,使其高效地在昇腾AI处理器上执行。

主要过程:

  1. 开源框架网络模型经过Parser解析后,转换为昇腾的中间图IR Graph。
  2. 中间图IR Graph经过图准备,图拆分,图优化,图编译等一系列操作后,转成适配昇腾AI处理器的*.om模型文件。
  3. 用户可调用AscendCL提供的模型加载、执行等接口实现模型推理。

02 ATC工具基本使用方法

下面以Caffe框架ResNet-50网络模型为例,介绍如何使用ATC工具转换模型。

1. 将Caffe框架ResNet-50网络模型的模型文件*.prototxt、权重文件*.caffemodel上传至ATC工具所在的Linux服务器。

2. 执行如下命令进行模型转换。

atc --framework=0 --soc_version=${soc_version} 

--model=$HOME/mod/resnet50.prototxt

--weight=$HOME/mod/resnet50.caffemodel

--output=$HOME/module/out/caffe_resnet50

参数解释如下:

  • --framework:原始网络模型框架类型,0表示Caffe框架。
  • --soc_version:指定模型转换时昇腾AI处理器的版本,可执行npu-smi info命令进行查询,在查询到的“Name”前增加Ascend信息,例如“Name”对应取值为xxxyy。
  • --model:原始网络模型文件路径,含文件名。
  • --weight:原始网络模型权重文件路径,含文件名,仅当原始网络模型是Caffe时需要指定。
  • --output:转换后的*.om模型文件路径,含文件名,转换成功后,模型文件名自动以.om后缀结尾。

3. 若提示ATC run success信息,则说明模型转换成功。

在--output参数指定的路径下,可查看转换后的模型文件,例如caffe_resnet50.om。

03 ATC工具高阶用法介绍

上述只给出了ATC工具进行模型转换最基本的命令,下面介绍ATC工具支持的更多特性,方便用户进一步了解。

1. 将原始模型文件或昇腾*.om模型文件转换成json格式

如果用户不方便查看原始模型或离线模型的参数信息时,可以将原始模型或离线模型转成json文件进行查看:

  • 原始模型文件—>json文件

atc --mode=1 --framework=0 --om=$HOME/mod/resnet50.prototxt

--json=$HOME/mod/out/caffe_resnet50.json

  • 昇腾*.om模型文件—>json文件

atc --mode=1 --om=$HOME/mod/out/caffe_resnet50.om  

--json=$HOME/mod/out/caffe_resnet50.json

2. 自定义*.om模型的输入输出数据类型

模型转换时支持指定网络模型的输入或输出节点的数据类型、Format,支持设置精度等。此处的示例命令场景是针对Caffe框架ResNet50网络模型,转换后的模型输入为FP16类型,指定Pooling算子作为输出,并且该输出节点为FP16类型。

atc --framework=0 --soc_version=${soc_version}

--model=$HOME/mod/resnet50.prototxt

--weight=$HOME/mod/resnet50.caffemodel

--output=$HOME/mod/out/caffe_resnet50  --input_fp16_nodes="data"

--out_nodes="pool1:0" --output_type="pool1:0:FP16"

3. 设置动态BatchSize/动态分辨率

某些推理场景,如检测出目标后再执行目标识别网络,由于目标个数不固定导致目标识别网络输入BatchSize不固定;如果每次推理都按照最大的BatchSize或最大分辨率进行计算,会造成计算资源浪费,因此,模型转换需要支持动态BatchSize和动态分辨率的设置,实际推理时,通过AscendCL接口设置本次推理所需的BatchSize和动态分辨率。

  • 动态BatchSize

atc --framework=0 --soc_version=${soc_version}  

--model=$HOME/mod/resnet50.prototxt

--weight=$HOME/mod/resnet50.caffemodel

--output=$HOME/mod/out/caffe_resnet50

--input_shape="data:-1,3,224,224"   --dynamic_batch_size="1,2,4,8"

其中,“--input_shape ”中的“-1”表示设置动态BatchSize,具体支持哪些BatchSize由“--dynamic_batch_size”决定。

  • 动态分辨率

atc --framework=0 --soc_version=${soc_version}  

--model=$HOME/mod/resnet50.prototxt

--weight=$HOME/mod/resnet50.caffemodel

--output=$HOME/mod/out/caffe_resnet50

--input_shape="data:1,3,-1,-1"   --dynamic_image_size="224,224;448,448"

其中,“--input_shape ”中的“-1,-1”表示设置动态分辨率,具体支持哪些分辨率由“--dynamic_image_size ”决定。

04 更多学习资源

[1]香橙派AIpro开源样例代码:Ascend/EdgeAndRobotics

[2]昇腾文档中心:昇腾社区-官网丨昇腾万里 让智能无所不及

[3]香橙派AIpro学习资源一站式导航:https://www.hiascend.com/forum/thread-0285140173361311056-1-1.html

  • 11
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值