【OpenVINO】Intel OpenVINO Toolkit入门指南(1)

欢迎关注公众号"异构加速Lab",这里会持续分享神经网络编译优化与异构加速学习笔记

写在前面

本文主要介绍Intel OpenVINO编译器的使用方法,实现MobileNetV2-SSD网络在Intel CPU和神经计算棒二代(NCS2)上的编译优化与推理加速,这也是笔者在2019年进行本科毕业设计的前半部分入门工作,使用OpenVINO版本为2019_R3.1。目前OpenVINO已更新到2021版本,相关变动可参考OpenVINO官网。(本文不包括OpenVINO的安装,安装步骤可参考末尾链接)

Intel OpenVINO简介

Intel在2018年发行的OpenVINO是一套针对计算机视觉加速优化的深度学习推理框架,将传统计算机视觉算法与深度学习相结合,支持多种深度学习训练框架模型的编译优化,能够轻松实现将预训练模型部署到Intel CPU、GPU、FPGA、神经计算棒等硬件设备上,发挥Inte硬件设备最大性能。
OpenVINO框架
OpenVINO包括模型优化器(Model Optimizer, MO)和推理引擎(Inference Engine, IE)两个组件,主要工作流程见图2。预训练模型经过模型优化器脚本生成优化后的中间表示IR文件,IR文件作为推理引擎的输入,在推理引擎内部将优化后网络部署到Intel的硬件设备上加速推理。
OpenVINO工作流程

模型优化

模型优化

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值