【OpenVINO】Intel OpenVINO Toolkit入门指南(1)

本文是Intel OpenVINO Toolkit的入门指南,介绍了如何使用模型优化器将MobileNetV2-SSD模型优化为IR文件,并在CPU和NCS2上进行加速推理。内容包括FP32/FP16优化以及8bit量化,详细阐述了校准工具的使用以生成INT8格式IR文件。
摘要由CSDN通过智能技术生成

欢迎关注公众号"异构加速Lab",这里会持续分享神经网络编译优化与异构加速学习笔记

写在前面

本文主要介绍Intel OpenVINO编译器的使用方法,实现MobileNetV2-SSD网络在Intel CPU和神经计算棒二代(NCS2)上的编译优化与推理加速,这也是笔者在2019年进行本科毕业设计的前半部分入门工作,使用OpenVINO版本为2019_R3.1。目前OpenVINO已更新到2021版本,相关变动可参考OpenVINO官网。(本文不包括OpenVINO的安装,安装步骤可参考末尾链接)

Intel OpenVINO简介

Intel在2018年发行的OpenVINO是一套针对计算机视觉加速优化的深度学习推理框架,将传统计算机视觉算法与深度学习相结合,支持多种深度学习训练框架模型的编译优化,能够轻松实现将预训练模型部署到Intel CPU、GPU、FPGA、神经计算棒等硬件设备上,发挥Inte硬件设备最大性能。
OpenVINO框架
OpenVINO包括模型优化器(Model Optimizer, MO)和推理引擎(Inference Engine, IE)两个组件,主要工作流程见图2。预训练模型经过模型优化器脚本生成优化后的中间表示IR文件,IR文件作为推理引擎的输入,在推理引擎内部将优化后网络部署到Intel的硬件设备上加速推理。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值