OpenVINO工具套件高级课程第二课:实验篇



一、演示示例

该实例包括cpp和python两个版本,推理引擎可以感知到系统中所有的可用设备,可以查看哪些设备已经连接并可以使用。
在这里插入图片描述
代码实现逻辑
①创建InferenceEngine Core类对象,不需要指定任何特定设备;
②查看系统中可用设备;
③查看这些设备所支持的结构;
④将默认配置参数打印到屏幕上。
在这里插入图片描述
缩写说明
CPU:中央处理器
GPU:图形处理器
GNA:高速网络加速器,用于增强音频功能实时背景噪音,抑制并降低CPU工作负载

二、解决方案

操作前提:确定已经创建了OpenVINO环境并且设置好了工作目录。
工作目录中共有GoogleNet-V2、head-pose-estimation-adas-0001、text-spotting-0003-recognizer-encoder等3个模型,下面将分别对它们进行对比分析。
在这里插入图片描述

1、Googlenet-V2模型

在这里插入图片描述

  • 1)使用CPU运行情况
    在这里插入图片描述

  • 2)使用GPU运行情况
    在这里插入图片描述

  • 3)使用MYRIAD运行情况
    在这里插入图片描述

  • 4)使用MULTI运行情况:使用MULTI插件使这些设备同时运行模型推理评估应用。
    在这里插入图片描述

2、Head Pose Estimation(头部姿态估计)

  • 1)使用CPU运行情况
    在这里插入图片描述
  • 2)使用GPU运行情况
    在这里插入图片描述
  • 3)使用MYRIAD运行情况:这里值得注意的是,并非所有设备都支持该模型的推理任务,MYRIAD设备无法运行该模型的推理任务。
    在这里插入图片描述
  • 4)使用MULTI运行情况:鉴于MYRIAD设备无法在该模型上运行推理任务,仅在CPU和GPU上运行MULTI插件,让CPU和GPU协同处理推理任务。
    在这里插入图片描述

3、Text Spotting Encoder(文本识别编码器)

参照上述类似操作,分别在CPU、GPU、MYRIAD、MULTI分别进行运行,在本人设备(基于各自使用的硬件设施不同,得出的结果可能会完全不同)运行得出的结果如下:
在这里插入图片描述
结论:在大多数情况下,在任何测试任务上使用MULTI插件所得出的结果比单独运行各个设备要好。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

同学来啦

原创不易,打赏随意。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值