OpenVINO工具套件中用于推理优化的自适应参数选择功能介绍

364 篇文章 97 订阅
279 篇文章 5 订阅

作者:周兆靖

本文简介

        当你使用AI模型进行推理时,往往需要设置一些参数与选项,相应地,OpenVINO 工具套件为此提供了一些自动设定参数选项的功能。本文主要介绍OpenVINO工具套件中与模型推理相关的3个功能,它们它们分别是:用于input数据足够多时,提供最大throughput的Auto-batching功能;用于自动选择设备进行推理的Auto Plugin功能;以及用于满足特定模型动态输入的Dynamic Shape功能。本文将逐一介绍这三个实用的功能,并在文末给出这三功能的优缺点总结对比。

功能介绍

Auto-batching

Auto-batching设计目的是让开发者利用最少的代码去实现使用Intel®显卡做模型推理的数据吞吐量最大化。在没有设定input以及没有限制范围的情况下,它会按照集成显卡或者是独立显卡能承受的最大吞吐量去设定推理线程数。如果应用程序有大量的输入数据且以高频率连续提交推理请求,推荐使用Auto-batching功能。

该功能通过几行代码实现了最多推理线程的响应,同时也不会对原先的示例代码造成影响。如果在推理设备设置中,将“device“参数设置为:BATCH:GPU 该功能将会被激活。例如,在benchmark_app应用使用Auto-batching的方式如下

$benchmark_app -hint none -d BATCH:GPU -m ‘path to your favorite model’

另外一种方法是:在GPU推理时,选择性能模式为”THROUGHPUT”,该功能将会被自动触发。所以在示例代码中添加如下两行,即可在GPU进行推理时,启动Auto-batching功能:

config = {"PERFORMANCE_HINT": "THROUGHPUT"}

compiled_model = core.compile_model(model, "GPU", config)

无论是通过设置BATCH:GPU,还是选择”THROUGHPUT”的推理模式,推理的batch  size值都会自动进行选取。选取的方式是查询当前设备的ov::optimal_batch_size属性并且通过模型拓扑结构的输入端获取batch size的值作为模型推理的batch size值。

接下来,是使用Benchmark  APP做的对比实验: 

图1:Disable Auto-batching

 图2:Enable Auto-batching

通过对比Auto-batching功能开闭的推理结果图,可以看到当此功能开启的时候:即使推理设备选择的是集成显卡,推理线程数仍旧被推上了128个,说明此功能确实会尝试使用当前状态下压力最大的推理线程数,来达到推理最大的吞吐量。但是结果是当推理性能有限的集成显卡启动了128个线程的时候,整体的throughput的数值比单推理线程的throughput要低一些,所以当硬件推理性能有限时,需要对推理线程数进行限定。同样,在Auto-batching中限定推理线程有两种方式分别为,设置BATCH: GPU (4)或设置ov::hint::num_requests参数可以将推理线程设为4

​auto compiled_model = core.compile_model(model, "GPU",
    ov::hint::performance_mode(ov::hint::PerformanceMode::THROUGHPUT),
    ov::hint::num_requests(4));
​

Auto-batching中内置了Auto_batch_timeout参数,该参数用于监测输入数据送达的时延,初始值为1000,表示若1000毫秒后无数据输入则提示推理超时。注意,如果推理频率较低,或者根据Auto_batch_timeout参数发现推理超时,可以手动关闭Auto-batching:

​// disabling the automatic batching
auto compiled_model = core.compile_model(model, "GPU",
    ov::hint::performance_mode(ov::hint::PerformanceMode::THROUGHPUT),
    ov::hint::allow_auto_batching(false));
​

AUTO Plugin

在OpenVINO工具套件的推理插件(Plugin)选择上,除了常规的CPU,iGPU,Myriad,您还可以选择使用AUTO Plugin。开发者通过它快速部署AI示例用于实验,且不用考虑推理设备的选择就能获得一个不错的推理性能。不需要指定设备,它会自动配置推理硬件,当有多个设备时,它也会自动联合调用多个硬件进行推理。

AUTO Plugin的工作流程是:首先,检测当前环境下所有的可用设备,之后根据预制的硬件选择规则,选择相应的推理设备,并且优化推理的整体配置,最后执行AI推理。AUTO Plugin 对于推理设备选择遵循以下的规则:

dGPU (e.g. Intel® Iris® Xe MAX) ->

iGPU (e.g. Intel® UHD Graphics 620 (iGPU)) ->

Intel® Movidius™ Myriad™ X VPU(e.g. Intel® Neural Compute Stick 2 (Intel® NCS2)) ->

Intel® CPU (e.g. Intel® Core™ i7-1165G7)

#常规用法:

compiled_model = core.compile_model(model=model, device_name="AUTO")

#您可以限定设备使用AUTO Plugin:

compiled_model = core.compile_model(model=model, device_name="AUTO:GPU,CPU")

#您也可以剔除使用AUTO Plugin的设备:

compiled_model = core.compile_model(model=model, device_name="AUTO:-CPU")

AUTO Plugin 内置有三个模式可供选择:

1.THROUGHPUT

默认模式。该模式优先考虑高吞吐量,在延迟和功率之间进行平衡,最适合于涉及多个任务的推理,例如推理视频源或大量图像。注:此模式只会对CPU与GPU进行调用。若该模式下调用GPU进行推理,将会自动触发“Auto-batching“功能。

compiled_model = core.compile_model(model=model, device_name="AUTO", config={"PERFORMANCE_HINT":"THROUGHPUT"})

2.LATENCY

此选项优先考虑低延迟,为每个推理任务提供比较短的响应时间。它对于需要对单个输入图像进行推断的任务(例如超声扫描图像的医学分析)。此外,它还适用于实时或接近实时应用的任务,例如工业机器人对其环境中动作的响应或自动驾驶车辆的避障。注:此模式只会对CPU与GPU进行调用。

compiled_model = core.compile_model(model=model, device_name="AUTO", config={"PERFORMANCE_HINT":"LATENCY"})

3.CUMULATIVE_THROUGHPUT

CUMULTIVE_THROUGHPUT模式允许同时在多个设备上运行推理以获得更高的吞吐量。使用CUMULTIVE_THROUGHPUT模式时,AUTO Plugin将网络模型加载到候选列表中的所有可用设备,然后根据默认的优先级载入设备运行推理。

compiled_mode = core.compile_model(model, "AUTO",

ov::hint::performance_mode(ov::hint::PerformanceMode::

CUMULATIVE_THROUGHPUT)); 

注意:如果指定了没有任何设备名称的AUTO,并且系统有两个以上的GPU设备,则AUTO将从设备候选列表中删除CPU,以保持GPU以满容量运行。如果指定了设备优先级,AUTO将根据优先级在设备上运行推理请求。

Dynamic Shape

模型的动态输入对于某些领域十分重要,比如说在自然语言处理(NLP)中就需要实时对语句进行分割,所以模型的输入是实时变化的,又比如在图像识别中,分割块的形状大小也会根据目标的大小实时变动。对于分割之后的图像来说,进行resize操作往往会破坏它的特征属性,导致在后期推理中造成推理准确性降低。动态形状输入功能的引入使得一些基于图像识别的模型,运行结果的准确度提高。使用Dynamic Shape功能能够更好地保留图像的特征,根据输入图像的大小,动态调节模型输入,最终模型推理的准确率获得了提升。

在2022.1以前的OpenVINO版本中,使用WPOD-NET (GitHub - sergiomsilva/alpr-unconstrained: License Plate Detection and Recognition in Unconstrained Scenarios)模型进行车牌识别,如果出现动态形态输入的话,在MO转换时就会报错,必须强制转成静态输入,例如:

python3
$INTEL_OPENVINO_DIR/deployment_tools/model_optimizer/mo_tf.
py --data_type=FP32 --saved_model_dir=./data/lpdetector/tf2/models/saved_model/ --model_name=wpod-net --
reverse_input_channels --input_shape [1,416,416,3] --
output_dir=./data/lpdetector/tf2/models/saved_model/FP32_416

这会导致该模型在特定的例子下识别精度降低

图例:输入图像Resize 为固定尺寸后进行模型推理

由于模型被强制转成了静态输入,可以很明显的发现输入的图像被被强制Resize到了(416,416),图像分割的错误,最后导致了最后车牌识别的结果是不正确的。

在2022.1以后的OpenVINO版本中,MO支持了Dynamic Shape的功能,故使用新版本OpenVINO工具套件中的模型优化器进行模型转换:

mo --saved_model_dir ./data/lpdetector/tf2/models/saved_model/ --output_dir ./data/lpdetector/tf2/models/FP32/

在生成的xml文件中,可以开到input shape被识别为动态输入,动态参数以“?”或“-1”进行显示:

<?xml version="1.0" ?>

<net name="saved_model" version="11">

    <layers>

      <layer id="0" name="input" type="Parameter" version="opset1">

        <data shape="?,?,?,3" element_type="f32"/>

      <output>

        <dim>-1</dim>

        <dim>-1</dim>

        <dim>-1</dim>

        <dim>3</dim>

        </port>

       </output>

    </layer>

使用包含动态输入的模型进行试验,实验结果如下

图例:模型使用动态输入进行推理

通过WPOD-NET的内置算法,计算得到合适的Resize长和宽(1232x608),将图片Resize至1232x608,分割到的车牌是清晰完整且最终车牌号码识别是正确的。

模型的动态输入在这个例子中显得十分重要,因为动态输入的支持使得模型推理识别的精度更加准确了。如果模型优化器没有识别到模型的动态输入参数,您可以在代码中手动指定Dynamic Shape:

core = ov.Core()
model = core.read_model("model.xml")

# Set one static dimension (= 1) and another dynamic dimension (= Dimension())
model.reshape([1, ov.Dimension()])

您也可以指定动态输入的动态范围:

​# Both dimensions are dynamic, first has a size within 1..10 and the second has a size within 8..512
model.reshape([ov.Dimension(1, 10), ov.Dimension(8, 512)])
​

由于您的输入图像是动态的,所以说您在初始化input tensor的时候,根据需要进行设定,您可以手动对每一个推理tensor进行指定:

# Get the tensor, shape is not initialized
input_tensor = infer_request.get_input_tensor()

# Set shape is required
input_tensor.shape = [1, 128]
input_tensor.shape = [1, 200]

当然,也可以通过模型的input layer进行指定:

input_tensor = np.expand_dims(image_resized, 0)

results = compiled_model.infer_new_request({0:

input_tensor})

总结:

功能

Auto-batching

AUTO Plugin

Dynamic shape

描述

  • 自动选择推理请求数,尝试使用压力最大的推理请求数以获取最大吞吐量
  • 从模型中读取最佳batch值
  • 自动选择推理硬件
  • 根据内在优先级对推理硬件进行使用,自动分配计算资源

  • 支持重塑模型,提供了根据最终应用程序所需的精确尺寸定制模型输入形状的能力。

优点

  • 设备利用率和效率提高
  • 获得设备的最大吞吐量
  • 少量编程工作获得多批次的吞吐量提升
  • 多硬件推理时,第一次推理的延迟更短
  • 不需要对设备进行了解就可以充分使用当前设备的计算性能
  • 自动配置推理设备,在多硬件下自动选择部署逻辑
  • 动态调整输入尺寸以及Tensor,使得推理结果更加准确
  • 动态输入可以节省内存空间,减少带宽占用

不足

  • 过多的推理线程数可能会导致超时,有时可能需要限制推理线程数
  • 限制在GPU上使用
  • 设备性能有限时,也会起过多的推理线程
  • 无法精确对应相应设备与性能的关系
  • 无法调节过多硬件详细的参数
  • 动态范围设置得不好可能会造成内存和计算资源的浪费

针对不同模型推理场景下, Auto-batching能够自动给予设备最大压力达到最大吞吐量;AUTO Plugin能够自动选择推理设备;Dynamic shape能供根据输入图像动态调整模型的input shape大小。这些功能都依据开发者的需求,在进行模型推理时,帮助住开发者自动完成相应的配置,对开发OpenVINO的示例应用进行辅助。

不过这些功能在使用时,也有一些注意事项需要知晓,请您在使用这些功能之前,了解每个功能的局限性以及每个功能正确的用法.

OpenVINO工具套件下载地址: https://www.intel.cn/content/www/cn/zh/developer/tools/openvino-toolkit/download.html

OpenVINO 使用文档: https://docs.openvino.ai/latest/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值