OpenVINO是Intel推出的一套基于Intel芯片平台的推理框架,主要包括Model optimizer和Inference Engine两部分组成,其中Model Optimizer是用于模型转换和优化的工具,即从主流的训练框架训练转成OpenVINO模型,而Inference Engine则是将已经转换好的模型进行部署运行。
Yolo是一个非常棒的目标检测模型,相信搞过CNN网络的同学都研究过这个网络,它的最新版本是V3版本,检测效果非常好。今天,我们就以Yolo V3模型使用OpenVINO工具进行推理测试。
第一步: 从Darknet模型转换成Tensorflow模型
执行完成后,在当前目录下就会产生一个“frozen_darknet_yolov3_model.pb”文件,这个就是对应的YOLO V3的Tensorflow模型。
第二步:使用MO工具将Tensorflow模型转换成OpenVINO模型
$/opt/intel/openvino/deployment_tools/model_optimizer/mo.py --input_model ./frozen_darknet_yolov3_model.pb -b 1 --tensorflow_use_custom_operations_config /opt/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/yolo_v3.json
执行完成后,在当前目录下就会产生两个OpenVINO模型对应的文件:
hank@hank-desktop:~/tensorflow-yolo-v3$ ls -lh frozen_darknet_yolov3_model.*
-rw-rw-r-- 1 hank hank 237M 8月 4