Banana Pi BPI-F3 进控时空 K1开发板 AI人工智能AI 部署工具使用手册

1. 工具概述

Spacengine™ 是由 进迭时空 研发的一套 AI 算法模型部署工具,旨在帮助用户快速、高效的在进迭时空 RISC-V 系列芯片产品(以下简称 设备端 或 芯片端)上部署 AI 算法模型。Spacengine™ 依托进迭时空自研 AI 指令及量化技术,针对自研 X60、X100 等 RISC-V 系列芯片进行了深度性能优化,从而显著提升了常见算法模型在 芯片端 的推理性能。

1.1 工具总览

Spacengine™ 主要由工具集(Tools)、AI 引擎(Engine)以及示例包(Samples)构成:

  • Spacengine™ 工具集(Tools)

Spacengine™ 工具集中的功能指令均以 spine 开头。您在部署过程中,主要涉及的指令包括:spine convert, spine simulate 以及 spine helper:

$ spine -h
usage: spine [-h] {convert,simulate,helper} ...

Spacemit AI Toolkit(Version: 2024/01/15)

positional arguments:
  {convert,simulate,helper}

optional arguments:
  -h, --help            show this help message and exit

其中:
spine convert 主要负责算法模型的一键转换和/或量化
spine simulate 提供 PC 端(当前仅限 x86)的模型仿真测试功能
spine helper 提供了一系列的辅助功能
【提示】相关 功能指令 及其子命令支持自动补全

  • Spacengine™ AI 引擎(AI Engine)

得益于进迭时空智算核架构,Spacengine™ AI 引擎以轻量化插件的方式接入 ONNXRumtime 等开源框架,结合深度调优的加速后端,就可以成功的将模型高效的部署到我们的芯片上。目前主要包含 Runtime Library,Profiling 工具,Custom-Ops Plugin 等组件。

  • Spacengine™ 示例包(Samples)

Spacengine™ 示例包为您提供了丰富的模型量化、推理运行代码示例,方便您快速、高效的对进迭时空 RISC-V 系列芯片进行评估和适配。其中,模型应用场景包括但不限于图像分类、目标检测、文字识别等,主干网络涉及但不限于 MobileNet、ResNet 等。

1.2 部署流程

配合 Spacengine™ 工具的 AI 模型部署流程,主要涉及模型转换、模型量化、仿真运行、模型部署(芯片端)这四个阶段:

  • 模型转换

转换工具目前支持 3. 模型转换章节。

  • 模型量化

为了提高模型在 芯片端 的运行性能、充分发挥芯片算力,我们强烈建议您将浮点模型量化为定点模型。量化后,大部分典型模型的精度损失都可以控制在 1% 以内。具体使用细节,您可以参阅 4. 模型量化章节。

  • 仿真测试

对于转换或量化后的 ONNX 模型,您可以在 x86 平台上进行仿真推理测试。正常情况下,该推理结果与 芯片端 运行结果完全一致。您可以参阅 5. 仿真测试章节内容,了解更多使用细节。

  • 模型部署

当模型性能和精度都符合预期后,即可参考 6. 模型部署章节内容,实现 芯片端 具体上层应用的开发。

2. 快速上手

本章节主要介绍进迭时空 AI 部署工具的使用流程,以帮助您快速上手。

2.1 开发环境

当前,进迭时空为您提供 PC(x86_64) 端 Docker 和本地手动配置两种方式(二选一即可)。

【提示】我们强烈建议您选择 Docker 方式,以避免本地手动安装过程中出现问题。

2.1.1 Docker 环境使用

为了简化您的部署流程,进迭时空提供了包含完整开发环境的 Docker 镜像。您可以在相关 Docker 环境中,进行模型转换、量化、测试等工作。因此,您仅需要正确安装 Docker 环境即可。

  • Docker 环境安装指南:
    • Mac 安装 Docker(桌面版)
    • Windows 安装 Docker(桌面版)
    • Linux 安装 Docker(桌面版)
  • Docker 环境快速查看(示例):
$ sudo docker -v
Docker version 24.0.7, build afdd53b

【提示】如果您无 root 权限,请联系您所使用 PC 设备的管理员,将您的用户名添加到 docker 用户组中。届时,您将不再需要 sudo 即可执行 docker 相关命令。

2.1.1.1 获取 Docker 镜像

您可以选择直接从 harbor.spacemit.com 的 spacemit-ai 项目中,拉取 spacemit-ai-sdk 相关镜像(注:x86_64 架构);也可以选择从 https://archive.spacemit.com/spacemit-ai/spacemit-ai-sdk/ 网站手动下载、导入压缩后的镜像文件。

【提示】出于带宽等因素考虑,我们推荐您采用 手动下载相关镜像 的方式。

  • 直接拉取(示例):
$ sudo docker pull harbor.spacemit.com/spacemit-ai/spacemit-ai-sdk:latest
latest: Pulling from spacemit-ai/spacemit-ai-sdk
...

【提示】如您需要特定版本的部署工具,操作时可将 latest 替换为指定版本号或其他标签(e.g. v1.0.0)。

  • 手动下载、导入(示例):
$ wget https://archive.spacemit.com/spacemit-ai/spacemit-ai-sdk/spacemit-ai-sdk.v1.1.0.x86_64.img.tar.gz --no-check-certificate
$ sudo docker load -i spacemit-ai-sdk.v1.1.0.x86_64.img.tar.gz

2.1.1.2 查看 Docker 镜像

  • 示例:
$ sudo docker images | grep spacemit-ai-sdk
REPOSITORY                                       TAG       IMAGE ID        CREATED       SIZE
harbor.spacemit.com/spacemit-ai/spacemit-ai-sdk  latest    4d239b86f5ea    3 days ago    3.83GB

2.1.1.3 创建 Docker 容器

  • 创建容器(示例):
$ NAME=ai_test # 给您的 docker 容器取个名称
$ sudo docker run -itd --name $NAME --net=host harbor.spacemit.com/spacemit-ai/spacemit-ai-sdk:latest /bin/bash

【提示】如您打算挂载宿主机目录到容器中(e.g. 参数 -v <宿主机目录:容器目录>),请回避 /opt 目录(当前进迭时空 AI 部署工具预置文件夹路径)。

  • 查看容器(示例):
$ sudo docker ps -a | grep $NAME
CONTAINER ID   IMAGE                                                   COMMAND        CREATED          STATUS           PORTS    NAMES
0a35d7feebd9   harbor.spacemit.com/spacemit-ai/spacemit-ai-sdk:latest  "/bin/bash"    2 minutes ago    Up 2 minutes              ai_test

2.1.1.4 进入 Docker 容器

  • 进入容器(示例):
$ sudo docker exec -it $NAME /bin/bash
  • 查询版本(示例):
root@xxx:/home/workspace# spine
...
Spacemit AI Toolkit(Version: 2024/01/15)
...

如您所见,相关输出即为当前 docker 开发环境中,进迭时空 AI 部署工具的版本信息。

【注意】当您第一次调用 spine 相关命令(及其子命令)时,spine 会自动为您安装必要的依赖包,故需要网络支持(正常情况下,该过程不会占用您太多时间)。

2.1.2 本地环境搭建

2.1.2.1 环境要求

操作系统:CentOS8 或者 Ubuntu18.04(及以上)

【提示】如果您不需要在 PC 端仿真测试,CentOS7 或者 Ubuntu16.04 即可满足环境要求。

2.1.2.2 获取部署工具

SDK 包下载页面:https://archive.spacemit.com/spacemit-ai/spacemit-ai-sdk/

  • 下载示例(e.g. v1.1.0):
$ wget https://archive.spacemit.com/spacemit-ai/spacemit-ai-sdk/spacemit-ai-sdk.v1.1.0.x86_64.tar.gz --no-check-certificate

2.1.2.3 安装部署工具

  • 解压工具(示例):
$ tar xzf spacemit-ai-sdk.v1.1.0.x86_64.tar.gz
  • 目录结构(示例):
$ tree -L 1 spacemit-ai-sdk.v1.1.0
spacemit-ai-sdk.v1.1.0
├── .spine.rc -> spine*       // 工具集 环境配置脚本
├── bianbu-ai-support         // 上层应用开发支持库(及示例)
├── quick_start*              // 快速上手示例脚本
├── install.sh*               // 依赖环境安装脚本
├── spacemit-gcc              // x86_64-riscv64 编译器
├── spacemit-ort              // 推理引擎(含算子库)
├── spacemit-qemu             // x86_64-riscv64 模拟器
├── spacengine*               // 工具集 入口
├── spacengine-toolkit        // 工具集 Python 环境(paddle/tf2/onnx 等模型相关)
├── spacengine-toolkit-caffe  // 工具集 Python 环境(caffe 官方模型相关)
├── spacengine-toolkit-tf1    // 工具集 Python 环境(tf1 模型相关)
├── spacengine-wheel          // 工具集 Python Wheel 包
├── spacengine-xquant         // 工具集 Python 环境(量化器)
└── spine -> spacengine*      // 工具集 入口(快捷)
  • 安装依赖(示例):
$ bash install.sh

【提示】您可能需要 root 权限来执行相关依赖软件的安装。若您无法获取相关权限,您可以联系您当前使用设备的管理员协助安装,或使用进迭时空为您提供的 AI 部署工具 docker 镜像(参见 2.1 Docker 环境使用 章节内容)。

  • 导入工具(示例):
# cd spacemit-ai-sdk.v1.1.0
$ source .spine.rc # 注: 仅对当前终端有效(您也可以编辑 ~/.bashrc 文件,使其对所有终端生效)
  • 查询版本(示例):
root@xxx:/home/workspace# spine
...
Spacemit AI Toolkit(Version: 2024/01/15)
...

【注意】当您第一次调用 spine 相关命令(及其子命令)时,spine 会自动为您安装必要的依赖包,故需要网络支持(正常情况下,该过程不会占用您太多时间)。

2.1.3 快速验证

为方便您快速上手进迭时空 AI 部署工具,我们为您准备了 quick_start 脚本工具(SDK 根目录下)。您可以通过运行该工具,快速验证并熟悉 AI 模型部署的全流程。

  • 使用说明(示例):
$ quick_start
Usage: /opt/spacemit-ai-sdk.v1.1.0/quick_start [paddle|demo|all]

其中,参数 paddle 指明快速演示 Paddle 相关模型部署流程(包括:资源下载、模型转换、模型量化、精度验证、仿真运行等);参数 demo 指明快速演示 C/C++ 应用程序编译、测试等流程;参数 all 指明快速演示所有任务(当前:paddle 和 demo)。

【说明】当您首次执行 quick_start paddle 或 quick_start all 时,脚本工具会自动下载并解压 quick_start.tar.gz 数据包(目录结构示例):

dataset/
├── data
│   └── Imagenet
│       ├── Calib            // 校准数据集
│       ├── Test             // 测试数据集
│       ├── calib_list.txt   // 校准数据列表
│       └── test_label.txt   // 测试数据标签
└── paddle
    └── classification
        ├── infer.py         // 推理测试脚本
        └── resnet50
            ├── inference.json  // 量化配置文件
            ├── inference.pdiparams
            └── inference.pdmodel

2.2 模型准备

以 quick_start 中的 Paddle 模型为例(其他框架模型类似,详情参阅 3. 模型转换章节内容),您也可以通过下述命令下载、解压示例模型:

$ wget https://bj.bcebos.com/paddle2onnx/model_zoo/resnet50.tar.gz && tar xvf resnet50.tar.gz
$ tree resnet50
resnet50
├── inference.pdiparams
└── inference.pdmodel

0 directories, 2 files

2.3 模型转换(和量化)

spine convert 主要负责算法模型的一键转换和量化。以 quick_start 脚本工具中的 test_convert_paddle 任务为例,在开发环境中,通过执行下述 spine convert paddle 命令即可完成模型的一键转换:

$ spine convert paddle --model_dir resnet50 \
                        --model_filename inference.pdmodel \
                        --params_filename inference.pdiparams \
                        --save_file resnet50/inference.onnx
[Paddle2ONNX] Start to parse PaddlePaddle model...
[Paddle2ONNX] Model file path: resnet50/inference.pdmodel
[Paddle2ONNX] Paramters file path: resnet50/inference.pdiparams
[Paddle2ONNX] Start to parsing Paddle model...
[Paddle2ONNX] Use opset_version = 9 for ONNX export.
[Paddle2ONNX] PaddlePaddle model is exported as ONNX format now.

【说明】--model_dir 指定 Paddle 模型目录,--model_filename 指定 Paddle 模型文件,--params_filename 指定 Paddle 模型参数文件,--save_file 指定输出 ONNX 模型文件路径。您可以参阅 3. 模型转换章节内容,了解更多模型转换及参数介绍细节。

【提示】--config,-c 参数可以指定量化配置文件,从而进一步将浮点模型量化为定点模型:

$ spine convert paddle --model_dir resnet50 \
                        --model_filename inference.pdmodel \
                        --params_filename inference.pdiparams \
                        --save_file resnet50/inference.onnx \
                        --config resnet50/inference.json
$ tree resnet50
resnet50
├── inference.json
├── inference.onnx
├── inference.pdiparams
├── inference.pdmodel
├── inference.q.onnx        // 量化后模型文件
└── inference.q_report.md   // 量化分析报告
  • 配置文件 inference.json 示例:
{
    "model_parameters": {
        "onnx_model": "resnet50/inference.onnx",
        "output_model_file_prefix": "inference.q",
        "working_dir": "resnet50"
    },
    "calibration_parameters": {
        "calibration_step": 500,
        "calibration_device": "cuda",
        "calibration_type": "default",
        "input_parametres": [
            {
                "input_name": "inputs",
                "input_shape": [
                    1,
                    3,
                    224,
                    224
                ],
                "file_type": "img",
                "mean_value": [
                    123.675,
                    116.28,
                    103.53
                ],
                "std_value": [
                    58.395,
                    57.12,
                    57.375
                ],
                "preprocess_file": "IMAGENET",
                "data_list_path": "dataset/data/Imagenet/calib_list.txt"
            }
        ]
    },
    "quantization_parameters": {
        "precision_level": 0
    }
}

其中,dataset 目录解压自 4. 模型量化章节内容。

2.4 精度验证

不同应用场景、领域下的精度评估指标各不相同。以 quick_start 中的 Paddle 分类模型为例,在开发环境中执行下述命令,可以在指定测试数据集上,快速对比、验证量化后模型的精度:

# eval converted onnx model(fp32)
$ /opt/spacemit-ai-sdk.v1.1.0/spacengine-toolkit/bin/python3 -m pip install opencv-python -i https://pypi.tuna.tsinghua.edu.cn/simple
$ /opt/spacemit-ai-sdk.v1.1.0/spacengine-toolkit/bin/python3 \
    dataset/paddle/classification/infer.py --model resnet50/inference.onnx \
    --image_dir dataset/data/Imagenet/Test --label_path dataset/data/Imagenet/test_label.txt
Prec@1 0.750 = 45 / 60
Prec@5 0.967 = 58 / 60

# eval quantized onnx model(int8)
$ /opt/spacemit-ai-sdk.v1.1.0/spacengine-toolkit/bin/python3 \
    dataset/paddle/classification/infer.py --model resnet50/inference.q.onnx \
    --image_dir dataset/data/Imagenet/Test --label_path dataset/data/Imagenet/test_label.txt
Prec@1 0.750 = 45 / 60
Prec@5 0.933 = 56 / 60

2.5 仿真测试

2.5.1 测试数据

spine helper test 提供创建标准 ONNX 测试数据集功能。以 quick_start 中的 test_simulate_paddle_qemu 函数及上述 Paddle 模型为例,在开发环境中运行下述命令:

$ spine helper test --model_path resnet50/inference.onnx --root_path test_data --test_name resnet50 -r 4 -f p2o.DynamicDimension.0:1 --save_output
[INFO] create random test data under /home/workspace/test_data/resnet50/test_data_set_0 done
[INFO] create random test data under /home/workspace/test_data/resnet50/test_data_set_1 done
[INFO] create random test data under /home/workspace/test_data/resnet50/test_data_set_2 done
[INFO] create random test data under /home/workspace/test_data/resnet50/test_data_set_3 done
$ tree test_data/resnet50/
test_data/resnet50/
├── inference.onnx
├── test_data_set_0
│   ├── input_0.pb
│   └── output_0.pb
├── test_data_set_1
│   ├── input_0.pb
│   └── output_0.pb
├── test_data_set_2
│   ├── input_0.pb
│   └── output_0.pb
└── test_data_set_3
    ├── input_0.pb
    └── output_0.pb

4 directories, 9 files

【说明】--model_path 指定 ONNX 模型路径,--root_path 指定测试数据集根目录,--test_name 指定测试用例名称,-r 指定测试用例数量,-f 指定符号参数对应的 shape,--save_output 指定需要保存 x86 测试输出结果。更多参数细节,可以参阅 5.2.5 数据构建 章节内容。

2.5.2 仿真运行

spine simulate 提供 PC 端(当前仅限 x86 架构)的模型仿真测试功能。该功能基于 SDK 中预置的 qemu-riscv64 以及 x86_64-riscv64 交叉编译工具,支持标准 ONNX 模型及进迭时空 AI 部署工具量化后的模型,并保证推理结果与 芯片端 运行结果完全一致。以上述生成的测试数据集为例:

$ spine simulate test_data/resnet50/
result:
        Models: 1
        Total test cases: 4
                Succeeded: 4
                Not implemented: 0
                Failed: 0
        Stats by Operator type:
                Not implemented(0):
                Failed:
Failed Test Cases:

【说明】spine simulate 封装了 SDK 目录下的 spacemit-ort/bin/onnx_test_runner 测试工具。如果测试用例目录下存在 标准 输出结果(e.g. spine helper test 构造测试数据时,通过 --save_output 指定保存 x86 输出结果),则 spine simulate test_data 命令还会对 芯片端 仿真测试输出结果进行精度比对(默认:相对误差 1e-5,绝对误差 1e-5)。更多参数细节,可以参阅 5.1.2 spine simulate 章节内容。

2.6 性能测试

SDK 目录下的 spacemit-ort/bin/onnxruntime_perf_test 工具支持在 芯片端 快速测试 AI 算法模型的纯推理性能。该工具兼容 ONNX 模型,故您可以很方便的使用它来评测原始 ONNX 浮点模型,以及转换(和/或量化)后的进迭时空定点模型性能。以上述量化后的 Paddle 模型为例,在 芯片端 执行下述命令:

bianbu@k1:~/desktop$ onnxruntime_perf_test inference.q.onnx -m times -r 100 -e spacemit
using SpaceMITExecutionProvider 
Session creation time cost: 2.74716 s
First inference time cost: 85 ms
Total inference time cost: 6.22935 s
Total inference requests: 100
Average inference time cost: 62.2935 ms
Total inference run time: 6.23146 s
Number of inferences per second: 16.0476 
Total CPU usage: 382 %
Peak working set size: 114634752 bytes
Min Latency: 0.0529422 s
Max Latency: 0.0912857 s
P50 Latency: 0.0603562 s
P90 Latency: 0.0741593 s
P95 Latency: 0.0837052 s
P99 Latency: 0.0912857 s
P999 Latency: 0.0912857 s

【说明】-m times 指定测试模式为固定测试次数,-r 100 指定测试推理 100 次,-e spacemit 使能进迭时空后端加速。更多参数细节,可以参阅 6.1 性能测试 章节内容。

2.7 应用开发

Bianbu AI Support Library 是进迭时空自研的上层应用开发支持库,开箱即用,仅需一两行代码就可以轻松集成图像分类、目标检测等 AI 任务。

  • Demo 编译、运行示例
# 一键交叉编译
$ cd spacemit-ai-sdk.v1.1.0/bianbu-ai-support/demo
$ bash build.sh
...
[INFO] Building demos done.

# 一键运行测试
$ bash build.sh --test
...
[INFO] Prepare ...
[INFO] Smoke test with image classification task ...
[INFO] Run: build/classification_demo data/models/squeezenet1.1-7.onnx data/labels/synset.txt data/imgs/dog.jpg
...
Classify result: n02113023 Pembroke, Pembroke Welsh corgi
...
[INFO] Smoke test with object detection task ...
[INFO] Run: build/detection_demo data/models/nanodet-plus-m_320.onnx data/labels/coco.txt data/imgs/person0.jpg result0.jpg
...
bbox[ 0] x1y1x2y2: (1346, 404,1525, 777), score: 0.727, label_text: person
bbox[ 1] x1y1x2y2: (1476, 412,1598, 766), score: 0.605, label_text: person
bbox[ 2] x1y1x2y2: ( 581, 447, 666, 706), score: 0.602, label_text: person
bbox[ 3] x1y1x2y2: (1840, 430,1919, 654), score: 0.470, label_text: person
bbox[ 4] x1y1x2y2: ( 459, 447, 551, 707), score: 0.462, label_text: person
bbox[ 5] x1y1x2y2: ( 689, 468, 745, 601), score: 0.430, label_text: person
bbox[ 6] x1y1x2y2: ( 660, 460, 722, 641), score: 0.401, label_text: person

【提示】您可以参阅 6.2.1.4 Demo 说明 章节内容,以了解更多现成 Demo 信息。您也可以参阅 6.2.2 AI Engine 章节相关介绍,了解进迭时空 AI 推理引擎的具体使用方式。

2.8 常见问题(FAQ)

2.8.1 部署工具有 windows 或 mac 版本吗?

答:暂时没有,未来可能会提供。

3. 模型转换

本章节主要介绍模型转换工具的使用细节。转换期间,工具会完成模型的格式转换、结构优化以及校准量化(如果您还指定了模型量化配置文件)等流程。转换完成后,工具将输出一个可以在进迭时空 芯片端 运行的模型。

【说明】

  1. (当前)进迭时空模型文件后缀名为 .onnx,兼容标准 ONNX 格式模型;
  2. 如果您还指定了模型量化配置文件,那您还将得到一个量化后的模型文件。

3.1 使用说明

$ spine convert -h
usage: spine convert [-h] {onnx,tf1,tf2,paddle,caffe} ...

positional arguments:
  {onnx,tf1,tf2,paddle,caffe}

optional arguments:
  -h, --help            show this help message and exit

转换工具目前预置了 ONNX、TensorFlow、Paddle、Caffe 四种框架的模型格式转换支持。由于进迭时空 AI 推理引擎兼容 ONNX 模型格式(opset >= 7),故对于 Pytorch、MXNet 等其他框架下的模型,您可以通过先将模型转换成 ONNX 格式,再调用转换工具(详情可以参阅 3.1.5 其他模型 章节内容)。

3.1.1 ONNX 模型

除模型量化外,转换工具针对 ONNX 模型还提供了子图提取、shape 修改、模型文件检查等功能。

3.1.1.1 使用说明

$ spine convert onnx -h
usage: spine convert onnx [-h] --input INPUT --output OUTPUT [--checker] [--onnxsim] [--verbose] [--inputs INPUTS] [--outputs OUTPUTS]
                            [--free_dim_param FREE_DIM_PARAM [FREE_DIM_PARAM ...]]
                            [--free_dim_denotation FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...]] [--config CONFIG]

optional arguments:
  -h, --help            show this help message and exit
  --input INPUT         input onnx model path
  --output OUTPUT       output jdsk model path
  --checker             enable onnx.checker.check_model
  --onnxsim             enable onnxsim(https://github.com/daquexian/onnx-simplifier) to simplify the onnx model
  --verbose, -v         verbose message, option is additive
  --inputs INPUTS       expected input tensor names with shapes(option)
  --outputs OUTPUTS     expected output tensor names with shapes(option)
  --free_dim_param FREE_DIM_PARAM [FREE_DIM_PARAM ...], -f FREE_DIM_PARAM [FREE_DIM_PARAM ...]
                        [dimension_name:override_value] specify a value(must > 0) to override a free dimension by name(dim.dim_param).
  --free_dim_denotation FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...], -F FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...]
                        [dimension_denotation:override_value] specify a value(must > 0) to override a free dimension by
                        denotation(dim.denotation).
  --config CONFIG, -c CONFIG
                        config file path for calibration

3.1.1.2 参数说明

参数

必要/可选

默认值

说明

-h, --help

可选

打印使用说明

--input

必要

输入模型路径

--output

必要

输出模型路径

--checker

可选

False

使能模型检查

--onnxsim

可选

False

使能 onnxsim 优化模型

--verbose, -v

可选

0

使能调试信息

--inputs

可选

None

重新指定模型输入节点及 shape(可选),格式示例:input_1[n1,n2],input2[n3,n4],...

--outputs

可选

None

重新指定模型输出节点及 shape(可选),格式示例:input_1[n1,n2],input2[n3,n4],...

-f, --free_dim_param

可选

None

重新指定某些输入数据 shape,格式示例:dimension_name:override_value [...]

-F, --free_dim_denotation

可选

None

重新指定某些输入数据 shape,格式示例:dimension_den0tation:override_value [...]

--config, -c

可选

None

模型校准配置文件路径(详情参阅 4. 模型量化 章节)

3.1.1.3 使用示例

3.1.1.3.1 提取模型 backbone

  • 示例模型:https://github.com/onnx/models/blob/main/validated/vision/object_detection_segmentation/yolov3/model/yolov3-12.onnx
$ spine convert onnx --input yolov3-12.onnx \
                      --output yolov3-12-backbone.onnx \
                      --inputs input_1 \
                      --outputs Transpose__467:0,Transpose__469:0,Transpose__472:0

【提示】您可以通过 Netron 可视化工具,查看需要提取的网络的输入输出名称(及 shape)。

3.1.1.3.2 修改模型输入 shape

spine convert onnx 当前提供了两种方式来修改模型的输入和/或输出 shape 信息:

  • 通过 --inputs 和/或 --outputs(适用于模型输入或输出个数较少场景)
$ spine convert onnx --input yolov3-12.onnx \
                      --output yolov3-12-1x3x416x416.onnx \
                      --inputs input_1[1,3,416,416],image_shape[1,2]

【注意】通过 --inputs 和/或 --outputs 修改 shape 信息时,如果模型有多个输入(或输出),则您需要显示指定全部输入(或输出)的 shape 信息(即使其中某些输入或输出的 shape 信息您并没有修改)。否则,spine convert onnx 会理解为您想要提取模型中指定的网络结构。

  • 通过 -f, --free_dim_param 和/或 -F, --free_dim_denotation(适用于模型输入或输出存在符号参数场景)

示例模型 abs_free_dimensions.onnx 链接:https://github.com/microsoft/onnxruntime/blob/v1.15.1/onnxruntime/test/testdata/abs_free_dimensions.onnx

$ spine convert onnx --input yolov3-12.onnx --output yolov3-12-1x3x416x416.onnx -f unk__577:416 unk__578:416
$ spine convert onnx --input abs_free_dimensions.onnx -f Dim1:2 -F DATA_CHANNEL:3

【注意】通过 -f, --free_dim_param 和/或 -F, --free_dim_denotation 修改 shape 信息时,您需要先通过 Netron 可视化工具或辅助功能指令 spine helper info 确定需要修改的目标 符号参数(e.g. “unk__577” 和 “unk__578”)。如果 shape 信息中不存在 符号参数,您可以选择通过 --inputs 和/或 --outputs 方式修改 shape 信息。

附:符号参数说明

  • 模型输入或输出 shape 信息存在 符号参数:
  • 模型输入或输出 shape 信息不存在 符号参数:

3.1.2 Tensorflow 模型

3.1.2.1 使用说明

以 tf2 为例(tf1 类似):

$ spine convert tf2 -h
usage: spine convert tf2 [-h] [--input INPUT] [--graphdef GRAPHDEF] [--saved-model SAVED_MODEL] [--tag TAG] [--signature_def SIGNATURE_DEF]
                           [--concrete_function CONCRETE_FUNCTION] [--checkpoint CHECKPOINT] [--keras KERAS] [--tflite TFLITE] [--tfjs TFJS]
                           [--large_model] --output OUTPUT [--inputs INPUTS] [--outputs OUTPUTS] [--ignore_default IGNORE_DEFAULT]
                           [--use_default USE_DEFAULT] [--rename-inputs RENAME_INPUTS] [--rename-outputs RENAME_OUTPUTS] [--use-graph-names]
                           [--opset OPSET] [--dequantize] [--custom-ops CUSTOM_OPS] [--extra_opset EXTRA_OPSET]
                           [--load_op_libraries LOAD_OP_LIBRARIES] [--continue_on_error] [--verbose] [--debug]
                           [--output_frozen_graph OUTPUT_FROZEN_GRAPH] [--inputs-as-nchw INPUTS_AS_NCHW] [--outputs-as-nchw OUTPUTS_AS_NCHW]
                           [--config CONFIG]

optional arguments:
  -h, --help            show this help message and exit
  --input INPUT         input from graphdef
  --graphdef GRAPHDEF   input from graphdef
  --saved-model SAVED_MODEL
                        input from saved model
  --tag TAG             tag to use for saved_model
  --signature_def SIGNATURE_DEF
                        signature_def from saved_model to use
  --concrete_function CONCRETE_FUNCTION
                        For TF2.x saved_model, index of func signature in __call__ (--signature_def is ignored)
  --checkpoint CHECKPOINT
                        input from checkpoint
  --keras KERAS         input from keras model
  --tflite TFLITE       input from tflite model
  --tfjs TFJS           input from tfjs model
  --large_model         use the large model format (for models > 2GB)
  --output OUTPUT       output model file
  --inputs INPUTS       model input_names (optional for saved_model, keras, and tflite)
  --outputs OUTPUTS     model output_names (optional for saved_model, keras, and tflite)
  --ignore_default IGNORE_DEFAULT
                        comma-separated list of names of PlaceholderWithDefault ops to change into Placeholder ops
  --use_default USE_DEFAULT
                        comma-separated list of names of PlaceholderWithDefault ops to change into Identity ops using their default value
  --rename-inputs RENAME_INPUTS
                        input names to use in final model (optional)
  --rename-outputs RENAME_OUTPUTS
                        output names to use in final model (optional)
  --use-graph-names     (saved model only) skip renaming io using signature names
  --opset OPSET         opset version to use for onnx domain
  --dequantize          remove quantization from model. Only supported for tflite currently.
  --custom-ops CUSTOM_OPS
                        comma-separated map of custom ops to domains in format OpName:domain. Domain 'ai.onnx.converters.tensorflow' is used by
                        default.
  --extra_opset EXTRA_OPSET
                        extra opset with format like domain:version, e.g. com.microsoft:1
  --load_op_libraries LOAD_OP_LIBRARIES
                        comma-separated list of tf op library paths to register before loading model
  --continue_on_error   continue_on_error
  --verbose, -v         verbose output, option is additive
  --debug               debug mode
  --output_frozen_graph OUTPUT_FROZEN_GRAPH
                        output frozen tf graph to file
  --inputs-as-nchw INPUTS_AS_NCHW
                        transpose inputs as from nhwc to nchw
  --outputs-as-nchw OUTPUTS_AS_NCHW
                        transpose outputs as from nhwc to nchw
  --config CONFIG, -c CONFIG
                        config file path for calibration

3.1.2.2 参数说明

-c, --config : 模型校准配置文件路径(详情参阅 4. 模型量化章节)其余参数同 Tensorflow-ONNX(tf2onnx) Parameters

【注意事项】:

  1. --input 参数同 --graphdef,输入模型文件名后缀通常为 pb
  2. --saved-model 对应的输入为文件夹,参考示例:
classification/inception_v3_tf2/
├── saved_model.pb
└── variables
    ├── variables.data-00000-of-00001
    └── variables.index

3.1.2.3 使用示例

【提示】您可以参考 Tensorflow-ONNX(tf2onnx) Getting Started

3.1.3 Paddle 模型

3.1.3.1 使用说明

$ spine convert paddle -h
usage: spine convert paddle [-h] --model_dir MODEL_DIR [--model_filename MODEL_FILENAME] [--params_filename PARAMS_FILENAME] --save_file SAVE_FILE
                            [--opset_version OPSET_VERSION] [--input_shape_dict INPUT_SHAPE_DICT] [--enable_dev_version ENABLE_DEV_VERSION]
                            [--enable_onnx_checker ENABLE_ONNX_CHECKER] [--enable_paddle_fallback ENABLE_PADDLE_FALLBACK] [--version] [--output_names OUTPUT_NAMES]
                            [--enable_auto_update_opset ENABLE_AUTO_UPDATE_OPSET] [--external_filename EXTERNAL_FILENAME] [--config CONFIG]

optional arguments:
  -h, --help            show this help message and exit
  --model_dir MODEL_DIR, -m MODEL_DIR
                        PaddlePaddle model directory, if params stored in single file, you need define '--model_filename' and 'params_filename'.
  --model_filename MODEL_FILENAME, -mf MODEL_FILENAME
                        PaddlePaddle model's network file name, which under directory seted by --model_dir
  --params_filename PARAMS_FILENAME, -pf PARAMS_FILENAME
                        PaddlePaddle model's param file name(param files combined in single file), which under directory seted by --model_dir.
  --save_file SAVE_FILE, -s SAVE_FILE
                        file path to save onnx model
  --opset_version OPSET_VERSION, -ov OPSET_VERSION
                        set onnx opset version to export
  --input_shape_dict INPUT_SHAPE_DICT, -isd INPUT_SHAPE_DICT
                        define input shapes, e.g --input_shape_dict="{'image':[1, 3, 608, 608]}" or--input_shape_dict="{'image':[1, 3, 608, 608], 'im_shape': [1, 2],
                        'scale_factor': [1, 2]}"
  --enable_dev_version ENABLE_DEV_VERSION
                        whether to use new version of Paddle2ONNX which is under developing, default True
  --enable_onnx_checker ENABLE_ONNX_CHECKER
                        whether check onnx model validity, default True
  --enable_paddle_fallback ENABLE_PADDLE_FALLBACK
                        whether use PaddleFallback for custom op, default is False
  --version, -v         get version of paddle2onnx
  --output_names OUTPUT_NAMES, -on OUTPUT_NAMES
                        define output names, e.g --output_names="["output1"]" or --output_names="["output1", "output2", "output3"]" or
                        --output_names="{"Paddleoutput":"Onnxoutput"}"
  --enable_auto_update_opset ENABLE_AUTO_UPDATE_OPSET
                        whether enable auto_update_opset, default is True
  --external_filename EXTERNAL_FILENAME
                        The filename of external_data when the model is bigger than 2G.
  --config CONFIG, -c CONFIG
                        config file path for calibration

3.1.3.2 参数说明

-c, --config : 模型校准配置文件路径(详情参阅 4. 模型量化章节)其余参数同 Paddle2ONNX Parameters

3.1.3.3使用示例

# download and extract paddle test model
$ wget https://bj.bcebos.com/paddle2onnx/model_zoo/mobilenetv3.tar.gz && tar xvf mobilenetv3.tar.gz

# convert paddle model to onnx (without quantization)
$ spine convert paddle --model_dir mobilenetv3 \
                        --model_filename inference.pdmodel \
                        --params_filename inference.pdiparams \
                        --save_file inference.onnx \
                        --enable_dev_version True

3.1.4 Caffe 模型

【提示】当前仅保证对标准 Caffe(GitHub) 模型的转换支持。

3.1.4.1 使用说明

$ spine convert caffe -h
usage: spine convert caffe [-h] --input INPUT --output OUTPUT [--verbose]
                             [--config CONFIG]

optional arguments:
  -h, --help            show this help message and exit
  --input INPUT         input caffe model path(basename)
  --output OUTPUT       output jdsk model path
  --verbose, -v         verbose message, option is additive
  --config CONFIG, -c CONFIG
                        config file path for calibration

3.1.4.2 参数说明

参数

必要/可选

默认值

说明

-h, --help

可选

打印使用说明

--input

必要

输入模型路径(不含后缀名,默认会加载相应的 .caffemodel 和 .prototxt 文件)

--output

必要

输出模型路径

--verbose, -v

可选

0

使能调试信息

--config, -c

可选

None

模型校准配置文件路径(详情参阅 4. 模型量化 章节)

3.1.4.3 使用示例

# download caffe test model
$ wget http://dl.caffe.berkeleyvision.org/bvlc_alexnet.caffemodel
$ wget https://github.com/BVLC/caffe/blob/master/models/bvlc_alexnet/deploy.prototxt -O bvlc_alexnet.prototxt

# convert caffe model to onnx (without quantization)
$ spine convert caffe --input bvlc_alexnet --output bvlc_alexnet.onnx -v

3.1.5 其他模型

由于进迭时空 AI 推理引擎兼容 ONNX 模型格式(opset >= 7),故对于 Pytorch、MXNet 等其他框架下的模型,您可以通过先将模型转换成 ONNX 格式,再调用转换工具:

  • Pytorch_to_Onnx 教程示例
  • MXNet_to_Onnx 教程示例
  • Cntk_to_Onnx 教程示例

3.2 自定义算子

3.2.1 ONNX 模型

请参阅 6. 模型部署中,AI 推理引擎 相关使用介绍。

3.2.2 其他模型

对于其他框架下的模型,我们建议您先将模型转换成 ONNX 模型格式,然后参照 3.2.1 ONNX 模型 章节处理。

4. 模型量化

本章节主要介绍模型量化工具的使用细节。进迭时空 RISC-V 系列芯片支持直接部署浮点(FP32)模型,但我们强烈建议您将浮点模型进一步量化为定点(INT8)模型。量化后模型的精度损失一般可以控制在 1% 以内,但推理性能却可以提升数十倍!

4.1 模型量化简介

XQuant 是基于 PPQ(0.6.6+) 开发的量化工具,集成了已经调整好的适配芯片的量化策略,使用 Json 配置文件调用统一接口实现模型量化。

4.2 量化工具说明

当前,模型量化功能已经被集成进 spine convert 命令中,您可以通过 -c 或 --config 选项指定相关量化配置文件路径。

【提示】量化工具安装包位于 SDK 中 spacengine-wheel/xquant 目录下,您也可以将其安装到指定的 Python 虚拟环境中。安装示例:

$ python3 -m pip install spacengine-wheel/xquant/xquant-1.1.0-py3-none-any.whl --extra-index-url https://pypi.ngc.nvidia.com

4.2.1 QuickStart

Python Code 以及 Shell 示例在 xquant_samples 中有源码,以便于快速开始模型量化

  • Python Code 使用
import xquant

demo_json = dict()
# 以下缺省对demo_json内容的填入
demo_json_path = "./demo_json.json"
# 使用字典的方式
xquant.quantize_onnx_model(demo_json)
# 使用json文件的方式
xquant.quantize_onnx_model(demo_json_path)
# 支持API调用时传入模型路径或模型Proto
# xquant.quantize_onnx_model("resnet18.json", "/home/share/modelzoo/classification/resnet18/resnet18.onnx")
# xquant.quantize_onnx_model(
#    "resnet18.json", "/home/share/modelzoo/classification/resnet18/resnet18.onnx", "resnet18_output.onnx"
# )
# import onnx
# onnx_model = onnx.load("/home/share/modelzoo/classification/resnet18/resnet18.onnx")
# quantized_onnx_model = xquant.quantize_onnx_model("resnet18.json", onnx_model)
  • Shell 使用
python -m xquant --config ./demo_json.json
# 指定输入以及输出模型路径
# python -m xquant -c./demo_json.json -i demo.onnx -o demo.q.onnx

4.2.2 配置文件说明

  • Json 配置示例
{
    "model_parameters" : {
        "onnx_model": "",
        "output_prefix": "",
        "working_dir": "",
        "skip_onnxsim": false
    },
    "calibration_parameters" : {
        "calibration_step": 100,
        "calibration_device": "cpu",
        "calibration_type": "default",
        "input_parametres": [
            {
                "input_name": "data",
                "input_shape": [1, 3, 224, 224],
                "dtype": "float32",
                "file_type": "img",
                "color_format": "bgr",
                "mean_value": [103.94, 116.78, 123.68],
                "std_value": [57, 57, 57],
                "preprocess_file": "",
                "data_list_path": ""
            },
            {
                "input_name": "data1",
                "input_shape": [1, 3, 224, 224],
                "dtype": "float32",
                "file_type": "img",
                "mean_value": [103.94, 116.78, 123.68],
                "std_value": [57, 57, 57],
                "preprocess_file": "",
                "data_list_path": ""
            }
        ]
    },
    "quantization_parameters": {
        "analysis_enable": true,
        "precision_level": 0,
        "finetune_level": 1,
        "max_percentile": 0.9999,
        "custom_setting": [
            {
                "input_names": ["aaa", "bbb"],
                "output_names": ["ccc"],
                "max_percentile": 0.999,
                "precision_level": 2,
                "calibration_type": "default"
            }
        ],
        "truncate_var_names": ["/Concat_5_output_0", "/Transpose_6_output_0"] "截断模型"
    }
}

  • 支持省略的字段

字段名

默认值

可选值

备注

output_prefix

onnx_model的去后缀文件名,输出以.q.onnx结尾

/

working_dir

onnx_model所在的目录

/

calibration_step

100

一般建议设置为100-1000范围

calibration_device

cuda

cuda、cpu

系统自动检测

calibration_type

default

default、kl、minmax、percentile、mse

推荐先使用default,而后是percentile或minmax,如果觉得default校准耗时过长,则可以转用percentile

input_name

从onnx模型中读取

input_shape

从onnx模型中读取

需要shape为全int,支持batch为符号,并默认填为1

dtype

从onnx模型中读取

float32、int8、uint8、int16

- 当前仅支持float32

file_type

img

img、npy、raw

- 只支持读取与dtype一致的raw数据,即默认为float32

preprocess_file

None

PT_IMAGENET、IMAGENET

系统预设了两种IMAGENET标准预处理,或自定义py预处理,"py文件路径:py方法名",sample中的resnet18_custom_preprocess.json有相关示例

quantization_parameters

{}

可全部省略

finetune_level

1

0,1,2,3

- 0,不进行任何激进的参数校准
- 1,可能进行一些静态量化参数校准
- 2+,将根据逐块量化的损失情况进行量化参数校准

precision_level

0

0、1、2

- 0,为全int8量化,即使调优也限制在int8
- 1,自动调优可以提高到混合bit,当前不支持
- 2,只将部分算子量化为int8,可适用于一般Transformer模型

max_percentile

0.9999

percentile量化时的截断范围,限制最小值为0.99

custom_setting

None

truncate_var_names

[]

只支持依据截断Tensor名,将计算图二分,并且将检查二分结果,否则将报错

  • 校准数据列表文件的规则

img_list.txt 每行表示一个校准数据文件路径,可以写相对于 img_list.txt 所在目录的相对路径,也可以写绝对路径,如果模型是多输入的,请确保每个文件列表的顺序是对应的。

QuantZoo/Data/Imagenet/Calib/n01440764/ILSVRC2012_val_00002138.JPEG
QuantZoo/Data/Imagenet/Calib/n01443537/ILSVRC2012_val_00000994.JPEG
QuantZoo/Data/Imagenet/Calib/n01484850/ILSVRC2012_val_00014467.JPEG
QuantZoo/Data/Imagenet/Calib/n01491361/ILSVRC2012_val_00003204.JPEG
QuantZoo/Data/Imagenet/Calib/n01494475/ILSVRC2012_val_00015545.JPEG
QuantZoo/Data/Imagenet/Calib/n01496331/ILSVRC2012_val_00008640.JPEG
  • preprocess_file 的规则

例如这是一个 custom_preprocess.py 脚本文件,则在配置文件中将 preprocess_file 设为 custom_preprocess.py:preprocess_impl 指向具体 py 文件的具体方法,如果是多输入的情况,code 差距不大的情况下,可以直接复用自己的预处理方法。

如下采用的预处理方式,即为 preprocess_file=None 时的预处理,

from typing import Sequence
import torch
import cv2
import numpy as np

def preprocess_impl(path_list: Sequence[str], input_parametr: dict) -> torch.Tensor:
    """
    读取path_list, 并依据input_parametr中的参数预处理, 返回一个torch.Tensor

    Args:
        path_list (Sequence[str]): 一个校准batch的文件列表
        input_parametr (dict): 等同于配置中的calibration_parameters.input_parametres[idx]

    Returns:
        torch.Tensor: 一个batch的校准数据
    """
    batch_list = []
    mean_value = input_parametr["mean_value"]
    std_value = input_parametr["std_value"]
    input_shape = input_parametr["input_shape"]
    for file_path in path_list:
        img = cv2.imread(file_path)
        img = cv2.resize(img, (input_shape[-1], input_shape[-2]), interpolation=cv2.INTER_AREA)
        img = img.astype(np.float32)
        img = (img - mean_value) / std_value
        img = np.transpose(img, (2, 0, 1))
        img = torch.from_numpy(img)
        img = torch.unsqueeze(img, 0)
        batch_list.append(img)
    return torch.cat(batch_list, dim=0)

以上这些特殊的工具使用方法,均在 samples 中有示例,可参考其中的 json 配置。

  • custom_setting 的规则

可参考 samples 中的 mobilenet_v3_small

"custom_setting": [
    {
        "input_names": ["input_0"],
        "output_names": ["/features/features.1/block/block.0/block.0.0/Conv_output_0"],
        "precision_level": 2
     }
  ]

工具采用计算图出入边包围子图的方式捕获一个子图并设置自定义量化参数,如下图示例,我们希望将计算图红框中的算子调整为 precision_level=2 的精度模式,则需要先确定当前子图的所有非常量出入边,即入边为子图内首个 Conv 的输入 n2,Add 的旁支输入 n7,出边为 Add 的输出 y

即产生如下的配置

"custom_setting": [
     {
         "input_names": ["n2", "n7"],
         "output_names": ["y"],
         "precision_level": 2
     }
  ]
  • truncate_var_names 的规则

truncate_var_names 支持将完整的带有后处理层的 ONNX 模型送入量化工具,量化产出模型也会保留后处理结构,但需要使用者指定模型主结构与后处理结构的分离点,即 truncate_var_names

例如 yolov6p5_n 模型,只需要指定 Sigmoid、Concat(红框)算子的输出即可将模型二分,只量化上半部分。

4.2.3 量化输出说明

量化工具执行完毕后,将输出如下两个产物。

  • ONNX 量化模型

QDQ 格式的 ONNX 量化模型,由推理库解析为相应的量化算子并执行定点推理。

  • 量化分析文件

开启 analysis_enable 后,将在输出目录下生成量化分析文件,以 markdown 文件形式呈现

SNR 高于 0.1、Cosine 小于 0.99 的输出将被标记,如果某个模型标记输出过多,则可能产生量化误差,Cosine 低并不一定产生量化误差,SNR 的可信度更高,而上图所示的结果则表明该模型很可能不适合量化,或者需要特别调整量化参数

4.2.4 量化 Sample

为了使用户更加容易上手,我们提供了相应的量化 Sample。

可见 SDK 包中,spacengine-xquant/xquant_sample.tar.gz

4.3 常见问题(FAQ)

欢迎大家踊跃提问

4.3.1 配置相关

4.3.1.1 报错:Calibration input_parametres size should equal to model inputs size.

答: 当前配置 json 文件中设置的模型输入数量与模型真实的输入数量不一致。

4.3.1.2 报错:calibration_type xxx not implemented yet.

答:量化校准算法不支持,当前仅 default、minmax、percentile、kl、mse。

4.3.1.3 报错: file_type xxx not implemented yet.

答:量化校准数据集的文件格式不支持,当前仅支持图像、Npy、Raw 文件。

4.3.1.4 Calibration input xxx finds 0 items.

答: 校准数据集设置错误或找不到任何有效的校准数据,可能是数据路径错误或文件格式问题。

4.3.1.5 truncate graph failed.

答: 截断模型错误,可能量化配置 json 文件中,模型中 tensor 名称设置错了(不存在或拼写错误)。可以用 netron 打开模型文件,查看/确认目标输入 tensor 名称。也可能是当前设置的 tensor 名称不足以将模型一分为二。

4.3.2 精度相关

4.3.2.1 示例:量化后模型 PC 端和芯片端推理结果不一致

答:目前芯片端的算子实现,强调推理效率,可能与 x86 或其他平台有轻微差距,但在算子实现没有明显 bug 的情况下,其批量精度应当与其他平台一致。

4.3.2.2 示例:量化后模型 PC 端精度和芯片端实测不一致

答:一般认为,多平台间合理的批量精度差异在 ±0.5% 以内,如果出现芯片端精度明显降低(>2%)的情况,则大概率是芯片端推理时的计算 bug 导致,请及时向我们反馈。

4.3.3 性能相关

4.3.3.1 示例

INT8 量化后的 Resnet18 单核 @1.2GHz 时的推理耗时约为 FP32 的 52 倍,38ms vs 1992ms。

INT8 量化后的 MobileNetV2 单核 @1.2GHz 时的推理耗时约为 FP32 的 9.6 倍,45ms vs 431ms。

5. 仿真测试

本章节主要介绍 PC 端模型仿真、测试工具的使用细节。您可以使用 spine simulate 指令,在 x86 平台上对转换和/或量化后的算法模型进行仿真测试。正常情况下,该推理结果与 芯片端 运行结果完全一致。

5.1 使用说明

Spacengine™ AI 工具集提供了 Python 脚本 和 预编译二进制程序 两种方式来支持仿真运行、测试,功能指令分别为:

spine-py simulatespine simulate

5.1.1spine-py simulate

【注意】(当前)Python 端仿真测试基于 x86_64 公版 onnxruntime-cpu,故:

  • 不保证支持进迭时空量化后的 ONNX 模型
  • 不保证 x86 PC 端公版 onnxruntime 推理结果完全对齐 芯片端 运行结果

5.1.1.1 使用说明

【说明】spine-py(当前)为隐藏指令,需要用户手动创建(ln -sf spine spine-py)。

$ spine-py simulate -h
usage: spine-py simulate [-h] --input INPUT [--output OUTPUT] [--target {cpu} [{cpu} ...]] [--in_data IN_DATA] [--err_data ERR_DATA]
                           [--eval_round EVAL_ROUND] [--intra_threads INTRA_THREADS] [--inter_threads INTER_THREADS] [--val_high VAL_HIGH]
                           [--val_low VAL_LOW] [--inputs INPUTS] [--outputs OUTPUTS] [--free_dim_param FREE_DIM_PARAM [FREE_DIM_PARAM ...]]
                           [--free_dim_denotation FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...]] [--max_batch_size MAX_BATCH_SIZE]
                           [--min_batch_size MIN_BATCH_SIZE] [--meta_shape META_SHAPE] [--meta_data META_DATA] [--verbose] [--input2 INPUT2]
                           [--output2 OUTPUT2] [--target2 {cpu} [{cpu} ...]] [--diff_max] [--atol ATOL] [--rtol RTOL]

optional arguments:
  -h, --help            show this help message and exit
  --input INPUT         input model file path
  --output OUTPUT       output data file path
  --target {cpu} [{cpu} ...]
                        target platform(s), aka provider(s)
  --in_data IN_DATA     input test data file path
  --err_data ERR_DATA   error test data file path
  --eval_round EVAL_ROUND, -er EVAL_ROUND
                        test round
  --intra_threads INTRA_THREADS
                        intra_op_num_threads of onnxruntime session options
  --inter_threads INTER_THREADS
                        inter_op_num_threads of onnxruntime session options
  --val_high VAL_HIGH, -vh VAL_HIGH
                        maximum test data value(default: 1.0)
  --val_low VAL_LOW, -vl VAL_LOW
                        minimum test data value(default: 0.0)
  --inputs INPUTS       input tensor shape override for testing
  --outputs OUTPUTS     output tensor shape override for testing(ignored at present)
  --free_dim_param FREE_DIM_PARAM [FREE_DIM_PARAM ...], -f FREE_DIM_PARAM [FREE_DIM_PARAM ...]
                        [dimension_name:override_value] specify a value(must > 0) to override a free dimension by name(dim.dim_param).
  --free_dim_denotation FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...], -F FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...]
                        [dimension_denotation:override_value] specify a value(must > 0) to override a free dimension by
                        denotation(dim.denotation).
  --max_batch_size MAX_BATCH_SIZE
                        maximum batch size for testing dynamic graph(default: 20)
  --min_batch_size MIN_BATCH_SIZE
                        minimum batch size for testing dynamic graph(default: 1)
  --meta_shape META_SHAPE
                        Meta function description for symbolic tensor shape or shape dimension value(integer) which <=0. Currently, at most one
                        such opaque dimension in each shape could be supported. In such case, the dimension value will be computed as
                        meta_func[idx](*args). The default meta funtion(i.e. meta_func[0]) is just like identity mapping f(*args): *args ->
                        args[0], while args[0] is the dynamic random max_batch_size for the most time. For example, --meta_shape 1:2,3:1 means
                        both input_shape[1] and input_shape[3] have an opaque dimension, and they should be computed as meta_func['2'](*args) =
                        args[0] * args[1] and meta_func['1'](*args) = args[1] respectively.
  --meta_data META_DATA
                        Meta data/arguments for meta function used in opaque dimension(e.g. symbolic tensor shape). For example, --meta_shape
                        1:2,3:1 --meta_data 1:8,3:4 means both input_shape[1] and input_shape[3] have an opaque dimension, and input_shape[1]
                        should be computed as meta_func['2'](*args) = args[0] * args[1], where args[0] is actually the max_batch_size, and
                        args[1] is '8' which specified in '--meta_data'.
  --verbose, -v         additive option, -v: show verbose model info and save exception test data, -vv: print model outputs
  --input2 INPUT2       model2 input file path
  --output2 OUTPUT2     model2 output data file path
  --target2 {cpu} [{cpu} ...]
                        model2 target platform(s), aka provider(s)
  --diff_max            check maximum abs difference or not
  --atol ATOL           absolute tolerance(default: 1e-4)
  --rtol RTOL           relative tolerance(default: 0)

5.1.1.2 参数详解

参数

必要/可选

默认值

说明

-h, --help

可选

打印使用说明

--input

必要

测试模型路径

--output

可选

None

推理输出数据保存文件路径(默认 ".txt",".npz" 仅能保存最近一次推理结果)

--target

可选

"cpu"

推理运行的 Provider(s),使用时用 " " 隔开,当前可选 EP(s) 包括:
{tensorrt,cuda,migraphx,rocm,openvino,dnnl,tvm,vitisai,qnn,
nnapi,js,coreml,armnn,acl,dml,rknpu,xnnpack,cann,azure,cpu}

--in_data

可选

None

测试数据文件路径(默认:随机生成测试数据)

--err_data

可选

None

模型推理异常时,相应测试数据的保存路径(默认:不保存)

--eval_round

可选

100

模型推理测试次数

--intra_threads

可选

0

并发计算每个算子的线程数(默认:0,i.e. 系统所有核心数)

--inter_threads

可选

0

并发计算多个算子的线程数(默认:0,i.e. 系统所有核心数)

--val_high

可选

1.0

随机测试数据最大值

--val_low

可选

0.0

随机测试数据最小值

# 动态 shape 相关参数 #

--inputs

可选

None

指定某些输入数据 shape,格式示例:input_1[n1,n2],input2[n3,n4]

--outputs

可选

None

指定某些输出数据 shape(当前暂不生效)

-f, --free_dim_param

可选

None

指定某些输入数据 shape,格式示例:dimension_name:override_value

-F, --free_dim_denotation

可选

None

指定某些输入数据 shape,格式示例:dimension_den0tation:override_value

--max_batch_size

可选

20

测试动态图模型时,随机测试数据的最大 batch_size

--min_batch_size

可选

1

测试动态图模型时,随机测试数据的最小 batch_size

--meta_shape

可选

None

测试动态图模型时,模型输入 shape 不规则情况下,指定 shape 的计算函数

--meta_data

可选

None

测试动态图模型时,模型输入 shape 不规则情况下,指定 shape 的计算参数

# 调试信息 相关参数 #

--verbose

可选

0

使能调试信息

# 模型间精度对比 相关参数 #

--input2

可选

精度比对模型路径

--output2

可选

None

比对模型输出数据保存文件路径(参见 --output)

--target2

可选

"cpu"

比对模型推理运行的 Provider(s)(参见 --target)

--diff_max

可选

False

True: 逐元素对比输出数据的相对误差和绝对误差
False: 统计输出数据整体误差的均值和最大值

--atol

可选

1e-4

绝对误差

--rtol

可选

0

相对误差

# 其他(实验性)参数 #

--sleep

可选

0.05(s)

相同测试数据下,调用不同模型推理之间的休眠时间(仅在非 verbose 时有效)

5.1.1.3 使用示例

  • 单模型运行测试(示例)
$ spine-py simulate --input demo/data/models/squeezenet1.1-7.onnx --eval_round 10

  • 两模型运行(精度、延时)对比(示例)
$ spine-py simulate --input demo/data/models/squeezenet1.1-7.onnx --eval_round 2 --input2 demo/data/models/squeezenet1.1-7.onnx --atol 1e-4 --rtol 0

【提示】两模型运行对比时,必须保证模型输入、输出一致。

5.1.2spine simulate

5.1.2.1 使用说明

预编译二进制程序(onnx_test_runner)位于 SDK 的 spacemit-ort/bin 目录下。spine simulate 命令是基于 SDK 中预置的 qemu-riscv64 以及 x86_64-riscv64 交叉编译工具,对该测试工具的进一步封装,支持量化后模型及标准 ONNX 模型,并保证推理结果与 芯片端 运行结果完全一致。

$ spine simulate -h
onnx_test_runner [options...] <data_root>
Options:
        -j [models]: Specifies the number of models to run simultaneously.
        -A : Disable memory arena
        -M : Disable memory pattern
        -c [runs]: Specifies the number of Session::Run() to invoke simultaneously for each model.
        -r [repeat]: Specifies the number of times to repeat
        -v: verbose
        -n [test_case_name]: Specifies a single test case to run.
        -e [EXECUTION_PROVIDER]: EXECUTION_PROVIDER could be 'cpu', 'spacemit'. Default: 'cpu'.
        -p: Pause after launch, can attach debugger and continue
        -x: Use parallel executor, default (without -x): sequential executor.
        -d [device_id]: Specifies the device id for multi-device (e.g. GPU). The value should > 0
        -t: Specify custom relative tolerance values for output value comparison. default: 1e-5
        -a: Specify custom absolute tolerance values for output value comparison. default: 1e-5
        -i: Specify EP specific runtime options as key value pairs. Different runtime options available are:
            [QNN only] [backend_path]: QNN backend path. e.g '/folderpath/libQnnHtp.so', '/folderpath/libQnnCpu.so'.
            [QNN only] [profiling_level]: QNN profiling level, options:  'basic', 'detailed', default 'off'.
            [QNN only] [rpc_control_latency]: QNN rpc control latency. default to 10.
         [Usage]: -e <provider_name> -i '<key1>|<value1> <key2>|<value2>'

         [Example] [For QNN EP] -e qnn -i "profiling_level|detailed backend_path|/folderpath/libQnnCpu.so"

            [SNPE only] [runtime]: SNPE runtime, options: 'CPU', 'GPU', 'GPU_FLOAT16', 'DSP', 'AIP_FIXED_TF'.
            [SNPE only] [priority]: execution priority, options: 'low', 'normal'.
            [SNPE only] [buffer_type]: options: 'TF8', 'TF16', 'UINT8', 'FLOAT', 'ITENSOR'. default: ITENSOR'.
         [Usage]: -e <provider_name> -i '<key1>|<value1> <key2>|<value2>'

         [Example] [For SNPE EP] -e snpe -i "runtime|CPU priority|low"

        -o [optimization level]: Default is 99. Valid values are 0 (disable), 1 (basic), 2 (extended), 99 (all).
                Please see onnxruntime_c_api.h (enum GraphOptimizationLevel) for the full list of all optimization levels.
        -h: help

onnxruntime version: 1.15.1

5.1.2.2 参数详解

  • 位置参数:<data_root>

<data_root>为标准的 ONNX 测试数据目录,您可以参考 spine helper test 命令使用说明,快速创建相关测试数据集。目录结构示例:

$ tree test_data/caffe/
test_data/caffe/
├── [bvlc_alexnet](http://dl.caffe.berkeleyvision.org/bvlc_alexnet.caffemodel)
│   ├── bvlc_alexnet.onnx
│   └── test_data_set_0
│       └── input_0.pb
├── [bvlc_googlenet](http://dl.caffe.berkeleyvision.org/bvlc_googlenet.caffemodel)
│   ├── bvlc_googlenet.onnx
│   └── test_data_set_0
│       └── input_0.pb
...
  • 可选参数:

参数

默认值

说明

-j

CPU 核心数

同时运行模型数量

-A

enable

禁用内存区域

-M

enable

禁用内存模式

-c

CPU 核心数

每个模型同时并发推理的数量

-r

1

重复测试次数

-v

disable

调试信息

-n

【空】

指定需要测试的用例名称(白名单)

-e

"cpu"

指定后端

-p

false

执行后暂停

-x

ExecutionMode::ORT_SEQUENTIAL

并发执行模式

-t

1e-5

相对误差

-a

1e-5

绝对误差

-o

ORT_ENABLE_ALL

优化等级

-d/-i

/

(可忽略)

-h

/

使用帮助

5.1.2.3 使用示例

$ spine simulate test_data/caffe

5.2 辅助工具(可选)

除仿真工具外,spine helper 还为您提供了一系列辅助工具,以满足某些特定需求。

5.2.1 功能总览

$ spine helper -h
usage: spine helper [-h] {precision,npfile,info,test} ...

positional arguments:
  {precision,npfile,info,test}

optional arguments:
  -h, --help            show this help message and exit

其中,

spine helper info 主要提供模型信息查看功能;

spine helper npfile 主要提供 npy/npz 数据查看功能;

spine helper precision 主要提供针对 txt/npy/npz 格式模型输出文件的精度对比功能;

spine helper test 主要提供创建标准 ONNX 测试数据集。

5.2.2 模型查看

$ spine helper info -h
usage: spine helper info [-h] [--onnx ONNX] [--graphdef GRAPHDEF] [--checkpoint CHECKPOINT] [--keras KERAS] [--show_node]
                          [--show_input] [--show_output] [--to_ext_data] [--verbose]

optional arguments:
  -h, --help            show this help message and exit
  --onnx ONNX           The input onnx model path.
  --graphdef GRAPHDEF   The input tensorflow protobuf model path.
  --checkpoint CHECKPOINT
                        The input tensorflow checkpoint meta path.
  --keras KERAS         The input tensorflow keras h5 filepath.
  --show_node, -sn      Display model graph nodes.
  --show_input, -si     Display model graph inputs.
  --show_output, -so    Display model graph outputs.
  --to_ext_data, -ext   Convert model to external data(ONNX only).
  --verbose, -v         verbose output, option is additive

【注意】spine helper info 当前仅支持查看 ONNX、TF Graphdef(pb)、TF CheckPoint、Keras 格式模型。

5.2.2.1 参数说明

参数

说明

-h

打印使用说明

--onnx

指定输入模型格式为 ONNX

--graphdef

指定输入模型格式为 TF Protobuf

--checkpoint

指定输入模型格式为 TF CheckPoint

--keras

指定输入模型格式为 TF Keras

--show_node

打印所有节点信息调试信息

--show_input

打印输入节点信息

--show_output

打印输出节点信息

--to_ext_data

将 ONNX 模型网络和权重相分离

--verbose

调试信息

5.2.2.2 使用示例

  • 查看 ONNX 模型信息(示例)
$ spine helper info --onnx yolov3-12.onnx -si -so -sn
  • 查看 TF PB 模型信息(示例)
$ spine helper info --graphdef frozen.pb -si -so -sn

5.2.3 数据查看

$ spine helper npfile -h
usage: spine helper npfile [-h] file

positional arguments:
  file        npy/npz data file path

optional arguments:
  -h, --help  show this help message and exit

5.2.3.1 参数说明

  • file : npy/npz 文件路径

5.2.3.2 使用示例

  • 查看 npy 数据信息(示例):
$ spine helper npfile arr1.npy
word_size: 16, num_vals: 524288, shape: (64,64,128)
  • 查看 npz 数据信息(示例):
$ spine helper npfile out.npz
key: myVar1, word_size: 8, num_vals: 1, shape: (1)
key: myVar2, word_size: 1, num_vals: 1, shape: (1)
key: arr1, word_size: 16, num_vals: 262144, shape: (32,64,128)

5.2.4 数据比对

$ spine helper precision -h
usage: spine helper precision [-h] --desired DESIRED [--actual ACTUAL] [--model MODEL] [--input INPUT] [--target {cpu} [{cpu} ...]]
                                [--intra_threads INTRA_THREADS] [--inter_threads INTER_THREADS] [--verbose] [--diff_max] [--atol ATOL]
                                [--rtol RTOL]

optional arguments:
  -h, --help            show this help message and exit
  --desired DESIRED     expected output data file path(txt/npz). For txt file, always suppose the dtype is float.
  --actual ACTUAL       actual output data file path(txt/npz). For txt file, always suppose the dtype is float.
  --model MODEL         input model file path(onnx)
  --input INPUT         input test data file path(txt/npz)
  --target {cpu} [{cpu} ...]
                        target platform(s), aka provider(s)
  --intra_threads INTRA_THREADS
                        intra_op_num_threads of onnxruntime session options
  --inter_threads INTER_THREADS
                        inter_op_num_threads of onnxruntime session options
  --verbose, -v         additive option, -v: show verbose info, -vv: print outputs
  --diff_max            check maximum abs difference or not
  --atol ATOL           absolute tolerance(default: 1e-4)
  --rtol RTOL           relative tolerance(default: 0)

5.2.4.1 参数说明

参数

说明

-h

打印使用说明

--desired

预期输出结果文件

--actual

实际输出结果文件

--model

ONNX 模型路径

--input

测试数据文件路径

--target

推理运行后端

--intra_threads

算子内部并发计算度

--inter_threads

模型内算子并发计算度

--verbose

调试信息

--diff_max

逐元素比对相对误差和绝对误差

--atol

绝对误差

--rtol

相对误差

5.2.4.2 使用示例

# check desired output with actual output directly(both npz and txt format are available)
$ spine helper precision --desired desired.npz --actual actual.txt

# check desired output and actual output with given tolerance
$ spine helper precision --desired desired.npz --actual actual.npz --atol 1e-5 --rtol 0

# check desired output with onnx model and input data
$ spine helper precision --desired desired.txt --model model.onnx --input data.npz

5.2.5 数据构建

$ spine helper test -h
usage: spine helper test [-h] --model_path MODEL_PATH --root_path ROOT_PATH --test_name TEST_NAME [--repeat REPEAT] [--inputs INPUTS]
                           [--outputs OUTPUTS] [--free_dim_param FREE_DIM_PARAM [FREE_DIM_PARAM ...]]
                           [--free_dim_denotation FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...]] [--val_high VAL_HIGH] [--val_low VAL_LOW]
                           [--formats {pb,npz} [{pb,npz} ...]] [--save_output]

optional arguments:
  -h, --help            show this help message and exit
  --model_path MODEL_PATH, -m MODEL_PATH
                        Path to the onnx model file to use.
  --root_path ROOT_PATH, -d ROOT_PATH
                        Root path to create the test directory in.
  --test_name TEST_NAME, -n TEST_NAME
                        Name for test. Will be added to the root_path to create the test directory name.
  --repeat REPEAT, -r REPEAT
                        Repeat times.
  --inputs INPUTS       input tensor shape override for testing
  --outputs OUTPUTS     output tensor shape override for testing(ignored at present)
  --free_dim_param FREE_DIM_PARAM [FREE_DIM_PARAM ...], -f FREE_DIM_PARAM [FREE_DIM_PARAM ...]
                        [dimension_name:override_value] specify a value(must > 0) to override a free dimension by name(dim.dim_param).
  --free_dim_denotation FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...], -F FREE_DIM_DENOTATION [FREE_DIM_DENOTATION ...]
                        [dimension_denotation:override_value] specify a value(must > 0) to override a free dimension by
                        denotation(dim.denotation).
  --val_high VAL_HIGH, -vh VAL_HIGH
                        maximum test data value(default: 1.0)
  --val_low VAL_LOW, -vl VAL_LOW
                        minimum test data value(default: 0.0)
  --formats {pb,npz} [{pb,npz} ...]
                        Output tensor file type.
  --save_output         Save output or not

5.2.5.1 参数说明

参数

说明

-h

打印使用说明

--model_path,-m

输入 ONNX 模型路径

--root_path,-d

测试数据根目录

--test_name,-n

测试用例名称

--repeat,-r

测试用例数量

--inputs

指定某些输入数据 shape,格式示例:input1[n1,n2],input2[n3,n4]

--outputs

指定某些输出数据 shape

--free_dim_param,-f

指定某些输入数据 shape,格式示例:dimension_name:override_value

--free_dim_denotation,-F

指定某些输入数据 shape,格式示例:dimension_den0tation:override_value

--val_high,-vh

随机测试数据最大值

--val_low,-vl

随机测试数据最小值

--formats

输出测试数据格式

--save_output

是否保存输出结果(基于 x86 onnxruntime-cpu)

【注意】由于 --save_output 依赖 PC 端模型推理(基于 x86 onnxruntime-cpu),故部分量化后的模型可能不支持该参数选项。

5.2.5.2 使用示例

$ spine helper test --model_path dataset/paddle/detection/picodet_l_640_coco/model.onnx --root_path test_data --test_name picodet_l_640_coco -r 1 -f p2o.DynamicDimension.0:1
$ tree /home/workspace/test_data/picodet_l_640_coco

6. 模型部署

本章节主要介绍如何在进迭时空 RISC-V 系列芯片产品(开发板、笔记本等)上,部署 AI 算法模型或进行相关 AI 应用开发。

6.1 性能测试

【提示】在正式部署 AI 模型前,我们强烈建议您先在 芯片端 进行相关模型的性能测试,以确保当前模型的推理性能符合预期。

SDK 目录下的 spacemit-ort/bin/onnxruntime_perf_test 工具支持在 芯片端 快速测试 AI 算法模型的纯推理性能。该工具兼容 ONNX 模型,故您可以很方便的使用它来评测原始 ONNX 浮点模型,以及转换(和/或量化)后的 ONNX 定点模型性能。

6.1.1 使用说明

$ onnxruntime_perf_test -h
perf_test [options...] model_path [result_file]
Options:
        -m [test_mode]: Specifies the test mode. Value could be 'duration' or 'times'.
                Provide 'duration' to run the test for a fix duration, and 'times' to repeated for a certain times. 
        -M: Disable memory pattern.
        -A: Disable memory arena
        -c [parallel runs]: Specifies the (max) number of runs to invoke simultaneously. Default:1.
        -e [cpu|spacemit]: Specifies the provider 'cpu', 'spacemit'. Default:'cpu'.
        -r [repeated_times]: Specifies the repeated times if running in 'times' test mode.Default:1000.
        -t [seconds_to_run]: Specifies the seconds to run for 'duration' mode. Default:600.
        -p [profile_file]: Specifies the profile name to enable profiling and dump the profile data to the file.
        -s: Show statistics result, like P75, P90. If no result_file provided this defaults to on.
        -S: Given random seed, to produce the same input data. This defaults to -1(no initialize).
        -v: Show verbose information.
        -x [intra_op_num_threads]: Sets the number of threads used to parallelize the execution within nodes, A value of 0 means ORT will pick a default. Must >=0.
        -y [inter_op_num_threads]: Sets the number of threads used to parallelize the execution of the graph (across nodes), A value of 0 means ORT will pick a default. Must >=0.
        -f [free_dimension_override]: Specifies a free dimension by name to override to a specific value for performance optimization. Syntax is [dimension_name:override_value]. override_value must > 0
        -F [free_dimension_override]: Specifies a free dimension by denotation to override to a specific value for performance optimization. Syntax is [dimension_denotation:override_value]. override_value must > 0
        -P: Use parallel executor instead of sequential executor.
        -o [optimization level]: Default is 99 (all). Valid values are 0 (disable), 1 (basic), 2 (extended), 99 (all).
                Please see onnxruntime_c_api.h (enum GraphOptimizationLevel) for the full list of all optimization levels.
        -u [optimized_model_path]: Specify the optimized model path for saving.
        -z: Set denormal as zero. When turning on this option reduces latency dramatically, a model may have denormals.
        -T [Set intra op thread affinities]: Specify intra op thread affinity string
         [Example]: -T 1,2;3,4;5,6 or -T 1-2;3-4;5-6 
                 Use semicolon to separate configuration between threads.
                 E.g. 1,2;3,4;5,6 specifies affinities for three threads, the first thread will be attached to the first and second logical processor.
                 The number of affinities must be equal to intra_op_num_threads - 1

        -D [Disable thread spinning]: disable spinning entirely for thread owned by onnxruntime intra-op thread pool.
        -H: Maximum value to produce the random input data. This defaults to -1(as std::numeric_limits<T>::max() whenever the value given by this option less than value of '-L').
        -L: Minimum value to produce the random input data. This defaults to 0.
        -R: Count of random generated input test data. This defaults to 1 and must > 0.
        -U: Maximum value to produce the random value of free dimensions which are not overriden. This defaults to 1. Specified value must > 0.
        -V: Minimum value to produce the random value of free dimensions which are not overriden. This defaults to 1. Specified value must > 0.
        -Z [Force thread to stop spinning between runs]: disallow thread from spinning during runs to reduce cpu usage.
        -h: help

6.1.2 参数说明

参数

必要/可选

默认值

说明

-m

可选

times

测试模式:固定测试时长(s)或测试次数(注:原 onnxruntime_perf_test 工具默认 'duration' 模式)

-M

可选

禁用内存 pattern

-A

可选

禁用内存 arena

-c

可选

1

压测并行推理数量(同一时刻,触发 session.run() 的个数)

-e

可选

cpu

推理运行的 Provider(s),使用时用 " " 隔开,当前可选 EP(s) 包括:{cpu|spacemit}

-r

可选

1000

固定测试次数模式下的模型推理测试次数(每个 session)

-t

可选

600

固定测试时间模式下的模型推理测试时间(每个 session),单位:秒

-p

可选

Profiling 文件路径(默认:禁用,非空:使能)

-s

可选

ON

打印推理耗时统计信息(如果未指定结果文件,则默认开启)

-S

可选

-1

随机种子(默认 -1 即不随机初始化测试数据,0 随机随机种子,> 0 用户指定的随机种子)

-v

可选

使能调试信息

-x

可选

0

单个算子内部并行线程数(默认 0 即 onnxruntime 内部机制)

-y

可选

0

多个算子并发执行线程数(默认 0 即 onnxruntime 内部机制)

-f

可选

按 参数名称(字符串:参见 abs_free_dimensions.onnx) 指定模型输入中自由维度的数值,格式 key:value

-F

可选

按 标记名称(字符串:参见 abs_free_dimensions.onnx) 指定模型输入中自由维度的数值,格式 key:value

-P

可选

使能并行执行模式

-o

可选

99

模型优化等级

-u

可选

优化后模型的保存路径

-z

可选

同 session_options.AddConfigEntry(kOrtSessionOptionsConfigSetDenormalAsZero, "1")

-T

可选

None

指定 onnxruntime 内部线程池中线程的亲和性

-D

可选

完全禁用 onnxruntime 算子内并发计算相关线程池中线程的空转

-H

可选

-1

随机生成测试数据最大值(如果小于最小值,则默认使用相应数据类型的最大值)

-L

可选

0

随机生成测试数据最小值

-R

可选

1

随机生成测试数据(组)数

-U

可选

1

自由维度(一般是 batch size)随机数据最大值

-V

可选

1

自由维度(一般是 batch size)随机数据最小值

-Z

可选

禁止线程在运行期间空转,以减少 CPU 利用率

-h, --help

可选

打印使用说明

6.1.3 使用示例

以 onnxruntime/test/testdata/abs_free_dimensions.onnx 模型为例:

6.1.3.1 随机测试数据

  • 固定测试次数 100,随机生成 10 组测试数据,并且固定随机种子为 1、随机测试数据最大 6、随机测试数据最小 2
$ MODEL=abs_free_dimensions.onnx
$ ARGS="${MODEL} ${MODEL%.onnx}.txt -m times -r 100 -R 10 -S 1 -H 6 -L 2"
$ onnxruntime_perf_test ${ARGS}
...
Session creation time cost: 0.0455992 s
First inference time cost: 0 ms
Total inference time cost: 0.00371454 s
Total inference requests: 100
Average inference time cost: 0.0371454 ms
Total inference run time: 0.00417042 s
Number of inferences per second: 23978.4 
...

6.2 应用开发

6.2.1 AI Support Library

为减轻您在相关应用上的开发工作,进迭时空已经在部署工具 SDK 包中预置了 AI Support Library。这是一个基于 OnnxRuntime 的上层应用开发支持库,开箱即用,仅需一两行代码就可以轻松集成图像分类、目标检测等 AI 任务。

6.2.1.1 Demo 简介

当前 Support Library Demo 位于部署工具包中 bianbu-ai-support 目录下,相关说明及示例如下:

$ tree -L 3 /opt/spacemit-ai-sdk.v1.1.0/bianbu-ai-support/
/opt/spacemit-ai-sdk.v1.1.0/bianbu-ai-support/
├── bin                 // 预编译好的可执行程序
│   ├── classification_demo
│   ├── detection_demo
│   ├── detection_stream_demo
│   ├── detection_video_demo
│   ├── estimation_demo
│   └── tracker_stream_demo
├── demo                // demo cmake 工程
│   ├── CMakeLists.txt
│   ├── README.md
│   ├── build.sh        // 快速编译(及测试)脚本
│   ├── dataloader.hpp
│   ├── image_classification_demo.cc
│   ├── object_detection.hpp
│   ├── object_detection_demo.cc
│   ├── object_detection_stream_demo.cc
│   ├── object_detection_video_demo.cc
│   ├── pose_estimation.hpp
│   ├── pose_estimation_demo.cc
│   ├── pose_tracker_stream_demo.cc
│   └── utils
│       ├── cv_helper.hpp
│       ├── json.hpp
│       ├── json_helper.hpp
│       └── win_getopt
├── include             // 预处理、后处理、辅助函数等模块
│   └── bianbuai
│       ├── task
│       └── utils
├── lib
│   ├── 3rdparty        // 第三方依赖库
│   │   └── opencv4
│   ├── libbianbuai.so -> libbianbuai.so.1
│   ├── libbianbuai.so.1 -> libbianbuai.so.1.0.15
│   └── libbianbuai.so.1.0.15
└── share
    └── ai-support      // 预置资源数据
        ├── imgs
        ├── models
        └── videos

16 directories, 24 files

6.2.1.2 Demo 编译

交叉编译

交叉编译主要适用于 PC 端(e.g. x86_64 开发环境),流程(示例)如下:

# 指定 spacemit-ai-sdk 路径
$ SDK=${PATH_TO_SPACEMIT_AI_SDK} # e.g. /opt/spacemit-ai-sdk.v1.1.0

# 指定交叉编译相关环境变量
$ CROSS_TOOL=$SDK/spacemit-gcc/bin/riscv64-unknown-linux-gnu-
$ SYSROOT=$SDK/spacemit-gcc/sysroot
$ BIANBUAI_HOME=$SDK/bianbu-ai-support
$ ORT_HOME=$SDK/spacemit-ort
$ OPENCV_DIR=$SDK/bianbu-ai-support/lib/3rdparty/opencv4/lib/cmake/opencv4

# 创建 cmake 工作目录并编译 demo
$ cd ${BIANBUAI_HOME}/demo
$ mkdir build && pushd build
$ cmake .. -DBIANBUAI_HOME=${BIANBUAI_HOME} -DORT_HOME=${ORT_HOME} -DOpenCV_DIR=${OPENCV_DIR} -DCMAKE_C_COMPILER=${CROSS_TOOL}gcc -DCMAKE_CXX_COMPILER=${CROSS_TOOL}g++ -DCMAKE_SYSROOT=${SYSROOT}
$ make -j4
$ popd

本地编译

本地编译适用于 芯片端,流程(示例)如下:

# 指定本地编译相关环境变量
$ CROSS_TOOL=
$ SYSROOT=
$ BIANBUAI_HOME=$SDK/bianbu-ai-support  # 指定最新 sdk 中的版本或 /usr 目录
$ ORT_HOME=$SDK/spacemit-ort            # 指定最新 sdk 中的版本或 /usr 目录
$ OPENCV_DIR=                           # 指定最新 sdk 中的版本或通过 find_package 自动查找

# 创建 cmake 工作目录并编译 demo
$ cd ${BIANBUAI_HOME}/demo
$ mkdir build && pushd build
$ cmake .. -DBIANBUAI_HOME=${BIANBUAI_HOME} -DORT_HOME=${ORT_HOME} -DOpenCV_DIR=${OPENCV_DIR} -DCMAKE_C_COMPILER=${CROSS_TOOL}gcc -DCMAKE_CXX_COMPILER=${CROSS_TOOL}g++ -DCMAKE_SYSROOT=${SYSROOT}
$ make -j4
$ popd

【提示】上述相关内容已提前预置在 demo/build.sh 快速编译脚本中。您可以通过编辑 demo/build.sh 脚本,快速修改相关配置(如:ORT_HOME 等变量)。届时,您可以通过 bash build.sh(交叉编译)和 bash build.sh --native(本地编译)命令快速验证 demo 编译。

快速编译

# 一键交叉编译(e.g. spacemit-ai-sdk.v1.1.0 docker 环境)
$ cd /opt/spacemit-ai-sdk.v1.1.0/bianbu-ai-support/demo
$ bash build.sh

6.2.1.3 Demo 运行

  • 仿真配置

对于交叉编译后的 demo 程序,您可以使用部署工具中预置的 qemu-riscv64 工具,实现 PC 端的仿真运行。相关配置如下:

$ QEMU_CMD="$SDK/spacemit-qemu/bin/qemu-riscv64 -L $SYSROOT"
  • 运行示例

【提示】对于本地编译后的 demo 程序,您无需配置任何环境变量。

# Create softlink to test resource if necessary
$ ln -sf ${BIANBUAI_HOME}/rootfs/usr/share/ai-support data

# Smoke test with image classification
$ env LD_LIBRARY_PATH=${ORT_HOME}/lib:$LD_LIBRARY_PATH ${QEMU_CMD} \
  build/classification_demo data/models/squeezenet1.1-7.onnx data/labels/synset.txt data/imgs/dog.jpg

# Smoke test with object detection
$ env LD_LIBRARY_PATH=${ORT_HOME}/lib:$LD_LIBRARY_PATH ${QEMU_CMD} \
  build/detection_demo data/models/nanodet-plus-m_320.onnx data/models/coco.txt data/imgs/person.jpg result0.jpg

【提示】上述相关内容已同样提前预置在 demo/build.sh 快速编译脚本中。您可以通过 bash build.sh --test 命令快速运行上述示例(x86_64 docker 环境仿真测试):

6.2.1.4 Demo 说明

  • classification_demo

单张图片图像分类 demo,输入单张图片路径,输出图像的类别。

运行方法

$ classification_demo 
Usage: 
classification_demo <model_path> <label_path> <image_path>
classification_demo <config_path> <image_path>

参数说明

参数

必选/可选

默认值

备注

model_path

必选

模型文件路径

label_path

必选

标签文件路径

config_path

必选

配置文件路径

image_path

必选

图像文件路径

  • detection_demo

单张图片目标检测 demo,输入单张图片地址与保存图片地址,输出框信息并将画框后图片保存到目标图片位置。

运行方法

$ detection_demo 
Usage: 
detection_demo <model_path> <label_path> <image_path> <save_path>
detection_demo <config_path> <image_path> <save_path>

参数说明

参数

必选/可选

默认值

备注

model_path

必选

模型文件路径

label_path

必选

标签文件路径

config_path

必选

配置文件路径

image_path

必选

图像文件路径

save_path

必选

保存图像文件路径

  • detection_stream_demo

视频流目标检测 demo,可以输入视频文件或者接入摄像头并实时显示画框后的画面。

运行方法

$ detection_stream_demo 
Usage: 
detection_stream_demo [-h <resize_height>] [-w <resize_width>] [-f] <model_path> <label_path> <input>
detection_stream_demo [-h <resize_height>] [-w <resize_width>] [-f] <config_path> <input>

参数说明

参数

必选/可选

默认值

备注

model_path

必选

模型文件路径

label_path

必选

标签文件路径

config_path

必选

配置文件路径

input

必选

输入内容

-w

可选

320

缩放后宽度大小

-h

可选

320

缩放后高度大小

-f

可选

水平翻转

  • detection_video_demo

视频目标检测 demo,输入视频文件地址,会输出实时框信息并保存画框后的视频(avi 格式)到目标地址。

运行方法

$ detection_video_demo 
Usage: 
detection_video_demo <model_path> <label_path> <video_path> <save_path>(*.avi)
detection_video_demo <config_path> <video_path> <save_path>(*.avi)

参数说明

参数

必选/可选

默认值

备注

model_path

必选

模型文件路径

label_path

必选

标签文件路径

config_path

必选

配置文件路径

video_path

必选

视频文件路径(mp4,avi)

save_path

必选

保存视频文件路径

  • estimation_demo

单张图片姿态估计 demo,输入单张图片地址与保存图片地址,将画点后图片保存到目标图片位置。

运行方法

$ estimation_demo 
Usage: 
estimation_demo <detection_model_path> <detection_label_path> <pose_point_model_path> <image_path> <save_path>
estimation_demo <detection_config_path> <pose_point_config_path> <image_path> <save_path>

参数说明

参数

必选/可选

默认值

备注

detection_model_path

必选

目标检测模型文件路径

detection_label_path

必选

目标检测标签文件路径

pose_point_model_path

必选

姿态模型文件路径

detection_config_path

必选

目标检测模型配置文件路径

pose_point_config_path

必选

姿态模型配置文件路径

image_path

必选

图像文件路径

save_path

必选

保存图像文件路径

  • tracker_stream_demo

视频流姿态追踪 demo,可以输入视频文件或者接入摄像头并实时显示画框后的画面。

运行方法

$ tracker_stream_demo 
Usage: 
tracker_stream_demo [-h <resize_height>] [-w <resize_width>] [-f] <detection_model_path> <detection_label_path> <pose_point_model_path> <input>
tracker_stream_demo [-h <resize_height>] [-w <resize_width>] [-f] <detection_config_path> <pose_point_config_path> <input>

参数说明

参数

必选/可选

默认值

备注

detection_model_path

必选

目标检测模型文件路径

detection_label_path

必选

目标检测标签文件路径

pose_point_model_path

必选

姿态模型文件路径

detection_config_path

必选

目标检测模型配置文件路径

pose_point_config_path

必选

姿态模型配置文件路径

input

必选

输入内容

-w

可选

320

缩放后宽度大小

-h

可选

320

缩放后高度大小

-f

可选

水平翻转

6.2.1.5 环境变量说明

环境变量名称

备注

SUPPORT_SHOW (stream demo)

-1 means not to display

SUPPORT_SHOWFPS (stream demo)

If there is content, fps will be displayed

SUPPORT_PROFILING_PROJECTS

Generated profile file address

SUPPORT_LOG_LEVEL

The range is 0-4

SUPPORT_GRAPH_OPTIMIZATION_LEVEL

Graph optimization level (ort_disable_all, ort_enable_basic, ort_enable_extended, ort_enable_all)

SUPPORT_OPT_MODEL_PATH

Optimized model path

SUPPORT_DISABLE_SPACEMIT_EP

1 means to disable spacemit-ep

SUPPORT_OPENCV_THREAD_NUM

The number of threads used by opencv(>= 4.x)

6.2.2 AI Engine

6.2.2.1 简介

SpacemiT-ORT 包含 ONNXRuntime 基础推理框架(v1.15.1)与 SpaceMITExecutionProvider 加速后端(后简称 EP),其使用方法与公版 ONNXRuntime 几乎一致。

6.2.2.2 QuickStart

  • C&C++
#include <onnxruntime_cxx_api.h>
#include "spacemit_ort_env.h"

Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "ort-demo");
Ort::SessionOptions session_options;
// 设置推理线程数
//int64_t num_threads = 2;
//session_options.SetIntraOpNumThreads(num_threads);
std::unordered_map<std::string, std::string> provider_options;
// provider_options["SPACEMIT_EP_DISABLE_OP_TYPE_FILTER"] = "OPA;OPB;OPC"; 禁止EP推理某些OP类型, node.op
// provider_options["SPACEMIT_EP_DISABLE_OP_NAME_FILTER"] = "OPA;OPB;OPC"; 禁止EP推理某些命名的OP, node.name
SessionOptionsSpaceMITEnvInit(session_options, provider_options); // 可选加载SpaceMIT环境初始化
Ort::Session session(env, net_param_path, session_options);

// ...后续与公版ORT一致
  • Python
# 使用whl包安装
# pip install spacemit_ort-*.whl
# 在riscv64平台上如果遇到警告则加上--break-system-packages
# whl包剥离了依赖库的自动安装, 需要自行安装numpy
# 对于riscv64平台,使用命令apt install python3-numpy安装

import onnxruntime as ort
import numpy as np
import spacemit_ort

eps = ort.get_available_providers() #
net_param_path = "resnet18.q.onnx"

sess_options = ort.SessionOptions()
# 设置线程数
# sess_options.intra_op_num_threads = 2
# 设置log等级
# sess_options.log_severity_level = 1
# 带ep的session
session = ort.InferenceSession(net_param_path, sess_options, providers=["SpaceMITExecutionProvider"])
# 不带ep的session
# 因为存在2个EP,因此需要特别指定
ref_session = ort.InferenceSession(net_param_path, sess_options, providers=["CPUExecutionProvider"])

input_tensor = np.ones((1, 3, 224, 224), dtype=np.float32)
input_name = session.get_inputs()[0].name  
output_names = [output.name for output in session.get_outputs()]  
outputs = session.run(output_names, {input_name: input_tensor})
ref_outputs = ref_session.run(output_names, {input_name: input_tensor})

# outputs与ref_outputs的误差一般在1e-5以内

6.2.2.3 Custom Operators plugins

使用原生 onnxruntime 的扩展自定义算子的方式,原文可参考

https://onnxruntime.ai/docs/reference/operators/add-custom-op.html

#include "onnxruntime_cxx_api.h"

struct CustomKernel {
  CustomKernel (const OrtKernelInfo* info);
  void Compute(OrtKernelContext* context);
};

struct CustomOp : Ort::CustomOpBase<CustomOp, CustomKernel> {
  explicit CustomOp ();
  void* CreateKernel(const OrtApi&, const OrtKernelInfo*) const;
  const char* GetName() const { return "custom op"; };
  const char* GetExecutionProviderType() const { return "CPUExecutionProvider"; };
  size_t GetInputTypeCount() const { return 1; };
  ONNXTensorElementDataType GetInputType(size_t) const { return ONNX_TENSOR_ELEMENT_DATA_TYPE_UNDEFINED; };
  OrtCustomOpInputOutputCharacteristic GetInputCharacteristic(size_t) const { return OrtCustomOpInputOutputCharacteristic::INPUT_OUTPUT_OPTIONAL; };
  size_t GetOutputTypeCount() const { return 1; };
  ONNXTensorElementDataType GetOutputType(size_t) const { return ONNX_TENSOR_ELEMENT_DATA_TYPE_UNDEFINED; };
  OrtCustomOpInputOutputCharacteristic GetOutputCharacteristic(size_t) const { return OrtCustomOpInputOutputCharacteristic::INPUT_OUTPUT_OPTIONAL; };
};

// 声明自定义算子域并向session_options增加自定义算子
static const char* c_OpDomain = "user.custom_domain";
Ort::CustomOpDomain domain{c_OpDomain};
static TestCustomOp CustomOp;
domain.Add(&TestCustomOp());
session_options.Add(domain);

6.2.2.4 Operator Accelerate List

  • https://onnx.ai/onnx/operators/index.html
  • https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md
  • Relu、Clip 将被默认优化于某些算子后

Op Type

Domain

Version

Attributes

Type

Notes

schema

Conv

ai.onnx

1、11

kernel_shape:限制二维

T:tensor(float) | tensor(float16)

QLinearConv

com.microsoft

1

kernel_shape:限制二维

T1:tensor(int8) | tensor(int16)
T2:tensor(int8)
T3:tensor(int8) | tensor(int16)
T4:tensor(int32) | tensor(float)

tensor(int16)是内部扩展的算子,由QDQ格式解析;权重量化仅支持对称量化

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearConv

ConvTranspose

ai.onnx

1、11

kernel_shape:限制二维

T:tensor(float) | tensor(float16)

QLinearConvTranspose

com.microsoft

1

kernel_shape:限制二维

T1:tensor(int8) | tensor(int16)
T2:tensor(int8)
T3:tensor(int8) | tensor(int16)
T4:tensor(int32)

仅支持PerTensor量化;权重量化仅支持对称量化

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearConv

QlinearMatMul

ai.onnx

10

T1:tensor(int8)
T2:tensor(int8)
T3:tensor(int8)

仅支持PerTensor量化,仅支持B为常量的MatMul;权重量化仅支持对称量化

https://onnx.ai/onnx/operators/onnx__QLinearMatMul.html

Gemm

ai.onnx

1、6、7、9、11、13

alpha: 限制为1.0
beta: 限制为1.0

T:tensor(float)

https://onnx.ai/onnx/operators/onnx__Gemm.html

QGemm

com.microsoft

1

alpha: 限制为1.0
beta: 限制为1.0

T:tensor(float)
TA:tensor(int8)
TB:tensor(int8)
TC:tensor(int8)
TYZ:tensor(int8)
TY:tensor(int8)

仅支持PerTensor量化,仅支持常量Gemm;权重量化仅支持对称量化

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QGemm

AveragePool

ai.onnx

1、7、10、11、19

kernel_shape:限制二维
count_include_pad: 限制1

T:tensor(float)

QLinearAveragePool

com.microsoft

1

kernel_shape:限制二维
count_include_pad: 限制1

T:tensor(int8)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearAveragePool

GlobalAveragePool

ai.onnx

1

T:tensor(float)

QLinearGlobalAveragePool

com.microsoft

1

T:tensor(int8)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearGlobalAveragePool

MaxPool

ai.onnx

11、12

kernel_shape:限制二维

T:tensor(float) | tensor(int8)

QuantizeLinear

ai.onnx

10、13、19

T1:tensor(float)
T2:tensor(int8) | tensor(int16)

DequantizeLinear

ai.onnx

10、13、19

T1:tensor(int8) | tensor(int16) | tensor(int32)
T2:tensor(float)

Add

ai.onnx

1、6、7、13、14

T:tensor(float)

QLinearAdd

com.microsoft

1

T:tensor(int8)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearAdd

Sub

ai.onnx

1、6、7、13、14

T:tensor(float)

Mul

ai.onnx

1、6、7、13、14

T:tensor(float)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearMul

QLinearMul

com.microsoft

1

T:tensor(int8)

Div

ai.onnx

1、6、7,13,14

T:tensor(float)

Sigmoid

ai.onnx

1、6、13

T:tensor(float)

QLinearSigmoid

com.microsoft

1

T:tensor(int8)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearSigmoid

HardSigmoid

ai.onnx

1、6

T:tensor(float)

QLinearSwish

spacemit_ops

1

T:tensor(int8)

同QLinearSigmoid

QLinearHardSigmoid

spacemit_ops

1

T:tensor(int8)

同QLinearSigmoid

HardSwish

ai.onnx

14

T:tensor(float)

QLinearHardSwish

spacemit_ops

1

T:tensor(int8)

同QLinearSigmoid

LeakyRelu

ai.onnx

1、6、16

T:tensor(float)

QLinearLeakyRelu

com.microsoft

1

T:tensor(int8)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearLeakyRelu

Transpose

ai.onnx

1、13

T:tensor(int8) | tensor(uint8)

Cast

ai.onnx

1、6、9、13、19

T1:tensor(float) | tensor(float16)
T2:tensor(float) | tensor(float16)

https://onnx.ai/onnx/operators/onnx__Cast.html

ReduceMean

ai.onnx

11、13

axes: 限制[2,3]

T:tensor(float)

QLinearReduceMean

com.microsoft

1

axes: 限制[2,3]

T:tensor(int8)

https://github.com/microsoft/onnxruntime/blob/main/docs/ContribOperators.md#com.microsoft.QLinearReduceMean

QLinearGelu

spacemit_ops

1

T:tensor(int8)

QLinearLayerNormalization

spacemit_ops

1

T:tensor(int8)

LayerNormalization

ai.onnx
com.microsoft

17
1

T:tensor(float)

Gelu

com.microsoft

1

T:tensor(float)

6.2.2.5 Inference Sample

为了使用户更加容易上手,我们提供了相应的推理 Sample。

可见 SDK 包中,spacemit-ort/samples 路径。

6.3 常见问题(FAQ)

欢迎大家踊跃提问

6.3.1 如何查看模型推理的 profiling 信息?

可以参考原版说明。

https://onnxruntime.ai/docs/performance/tune-performance/profiling-tools.html

#include <onnxruntime_cxx_api.h>
#include "spacemit_ort_env.h"

Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "ort-demo");
Ort::SessionOptions session_options;
std::unordered_map<std::string, std::string> provider_options;

std::string profile_path = "ort-demo-profile";
// 开启profiling
session_options.EnableProfiling(profile_path.c_str());

std::string opt_net_path = "ort-demo-opt.onnx";
// 开启保存优化后ONNX模型,该模型只能在当前特定平台下使用
session_options.SetOptimizedModelFilePath(opt_net_path.c_str());

SessionOptionsSpaceMITEnvInit(session_options, provider_options);
Ort::Session session(env, net_param_path, session_options);

6.3.2 如何保存模型运行时逐层结果?

ONNX 模型节点输出 Tensor 的 dump 功能,由一系列环境变量控制,此处给出可能使用到的常用环境变量解释。

环境变量名

含义

取值

ORT_DEBUG_NODE_IO_DUMP_SHAPE_DATA

打印节点输入输出Tensor的Shape信息

0,1,默认为0

ORT_DEBUG_NODE_IO_DUMP_NODE_PLACEMENT

打印节点的EP信息

0,1,默认为0

ORT_DEBUG_NODE_IO_DUMP_INPUT_DATA

dump节点输入Tensor的数据

0,1,默认为0

ORT_DEBUG_NODE_IO_DUMP_OUTPUT_DATA

dump节点输出Tensor的数据

0,1,默认为0

ORT_DEBUG_NODE_IO_NAME_FILTER

dump节点的名字过滤

以分号间隔的字符串,默认为空

ORT_DEBUG_NODE_IO_OP_TYPE_FILTER

dump节点的类型过滤

以分号间隔的字符串,默认为空

ORT_DEBUG_NODE_IO_DUMP_DATA_DESTINATION

dump节点输入输出Tensor的导出类型

字符串"stdout" or "files" or "sqlite",一般选用files

ORT_DEBUG_NODE_IO_OUTPUT_DIR

dump节点输入输出Tensor的文件存放位置

字符串

ORT_DEBUG_NODE_IO_DUMPING_DATA_TO_FILES_FOR_ALL_NODES_IS_OK

确认是否导出全部的Tensor

0,1,默认为0

export ORT_DEBUG_NODE_IO_DUMP_SHAPE_DATA=1
export ORT_DEBUG_NODE_IO_DUMP_OUTPUT_DATA=1
export ORT_DEBUG_NODE_IO_DUMP_DATA_DESTINATION=files
# 指定导出Tensor文件的目录
export ORT_DEBUG_NODE_IO_OUTPUT_DIR=./dump_dir
export ORT_DEBUG_NODE_IO_DUMPING_DATA_TO_FILES_FOR_ALL_NODES_IS_OK=1
export ORT_DEBUG_NODE_IO_DUMP_NODE_PLACEMENT=1
export ORT_DEBUG_NODE_IO_APPEND_RANK_TO_FILE_NAME=1
# export ORT_DEBUG_NODE_IO_OP_TYPE_FILTER="QLinearConv;QLinearGlobalAveragePool"

rm -rf ./dump_dir
mkdir -p ./dump_dir
# 执行demo或者你的程序获得
./run_demo resnet18 resnet18.q.onnx
  • 控制台输出
QLinearConv node: SpaceMITExecutionProvider_QLinearConv_20
Input 0 Name: PPQ_Operation_141
 Shape: {1,7,7,512}
Input 1 Name: ortshared_1_0_1_2_token_254
 Shape: {}
Input 2 Name: PPQ_Variable_373
 Shape: {}
Input 3 Name: onnx::Conv_250
 Shape: {512,512,3,3}
Input 4 Name: PPQ_Variable_375
 Shape: {512}
Input 5 Name: PPQ_Variable_376
 Shape: {512}
Input 6 Name: ortshared_1_0_1_3_token_255
 Shape: {}
Input 7 Name: PPQ_Variable_382
 Shape: {}
Input 8 Name: onnx::Conv_251
 was missing data type
 Placement: SpaceMITExecutionProvider
-----------
Output 0 Name: PPQ_Operation_145
 Shape: {1,7,7,512}

 Placement: SpaceMITExecutionProvider
-----------
QLinearGlobalAveragePool node: SpaceMITExecutionProvider_QLinearGlobalAveragePool_21
Input 0 Name: PPQ_Operation_147
 Shape: {1,7,7,512}
Input 1 Name: ortshared_1_0_1_0_token_252
 Shape: {}
Input 2 Name: PPQ_Variable_391
 Shape: {}
Input 3 Name: ortshared_1_0_1_1_token_253
 Shape: {}
Input 4 Name: PPQ_Variable_394
 Shape: {}
 Placement: SpaceMITExecutionProvider
-----------
Output 0 Name: PPQ_Operation_149
 Shape: {1,1,1,512}

在 ./dump_dir 目录中获得指定节点类型的所有输出,以 tensorproto 格式存放

6.3.3 如何设置多线程以及多线程亲和性?

可参考原版文档设置线程亲和性,因为架构特殊性,0~3 号线程无法手动设置亲和性,由 ep 自行管理。

https://onnxruntime.ai/docs/performance/tune-performance/threading.html#set-intra-op-thread-affinity

6.3.4 是否需要关注 Tensor 的 Layout 内存排布?

推理库完全沿用 ONNXRuntime 对于 Tensor 的定义,即 NCHW 与 shape 描述一致的内存布局。

6.3.5 输入 QLinear 算子的模型

ONNX 算子集合内有一些公版的 QLinear 算子,在静态 shape 的情况下,可以直接使用,而在其他情况下,尽量使用 QDQ 格式的量化模型

7. Model Zoo

本章节主要介绍进迭时空 Model Zoo 相关内容。

7.1 模型列表

Classification

Model Name

Fp32 top1/%

Quant top1/%

1线程推理耗时@1.6GHz/ms

2线程推理耗时@1.6GHz/ms

4线程推理耗时@1.6GHz/ms

模型链接

resnet18

69.64

69.64

38.4699

28.289

17.2622

resnet50

75.46

76.00

100.06

71.571

45.1088

seresnet50

79.26

79.00

115.113

90.6925

62.0626

resnext50

80.64

79.28

149.82

126.746

100.67

mobilenet_v1

71.64

71.42

29.9216

21.0166

13.1717

mobilenet_v2

71.32

71.66

34.1042

23.8068

16.0097

mobilenet_v3_large

73.26

73.20

54.3095

35.1863

25.6427

efficientnet_v1_b1

76.7

76.1

114.632

86.3809

56.6777

efficientnet_v2_s

80.3

79.68

149.592

111.917

77.4648

v100_gpu64_6ms

74.58

74.82

57.637

48.2335

35.2046

shufflenet_v2_x1_0

68.72

68.6

37.0776

31.8273

26.3727

inception_v1

66.04

65.1

125.068

85.2864

60.1591

inception_resnet_v2

80.18

80.04

313.24

226.824

142.386

inception_v3

76.74

76.32

121.433

86.5108

55.4845

repvgg

71.82

71.7

24.8253

18.3217

12.5148

squeezenetv1.1

56.12

56.18

18.9487

14.7087

11.3769

swin-tiny_16xb64_in1k

80.26

79.9

1614.54

1273.49

1087.9

Detection

  • 检测模型默认包含后处理,不包含前处理

Model Name

Fp32 mAP/%

Quant mAP/%

1线程推理耗时@1.6GHz/ms

2线程推理耗时@1.6GHz/ms

4线程推理耗时@1.6GHz/ms

模型链接

yolov5_n_dyn(320x320)

95.8678

85.5698

67.9318

yolov5_s_dyn(320x320)

150.188

118.762

88.8557

yolov6p5_n(320x320)

40.0114

29.973

23.655

ssd-mobilenet(300x300)

58.1563

43.1459

25.629

nanodet-plus-m(320x320)

84.9497

72.1837

59.2333

Pose

Model Name

Fp32 mAP/%

Quant mAP/%

1线程推理耗时@1.6GHz/ms

2线程推理耗时@1.6GHz/ms

4线程推理耗时@1.6GHz/ms

模型链接

rtmdet-nano

71.4352

54.9239

41.8441

rtmpose-t

36.5269

28.6969

23.0973

rtmpose-s

47.6432

37.6789

28.9216

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值