目录
嗨,欢迎阅读有关将 Docker 与英特尔的OpenVINO™集成与Tensorflow* 结合使用的图解指南,以加速在英特尔硬件上推理TensorFlow模型。
在这篇文章中,我们将首先使用 DockerHub 上可用的预构建镜像。然后,我们将介绍通过Docker访问对象检测notebook所需的确切命令。
让我们开始吧!
在这篇文章中,我们将尝试在Windows操作系统上运行OpenVINO™与TensorFlow*的集成。您将需要适用于Windows的Docker桌面。
如果您打算在Ubuntu操作系统上试用,请参阅此链接。该链接还提供了有关从托管的Dockerfile构建运行时镜像的说明。
首先,我们只是在我的英特尔®酷睿™ i7 CPU上提取并运行最新的docker镜像。为此,请单击此链接并向下滚动到“Docker支持”部分,然后选择您选择的Ubuntu预构建镜像。
在这里,我们将使用 Ubuntu 20预构建镜像。
接下来,在Windows PowerShell中键入以下命令。
- Docker pull openvino/openvino_tensorflow_ubuntu20_runtime
- docker run -it --rm -p 8888:8888 openvino/openvino_tensorflow_ubuntu20_runtime:latest
您会注意到两件事:
- OpenVINO™环境已初始化
- 托管notebook的服务器位置和URL
若要访问notebook,请在浏览器中复制粘贴托管notebook的URL。
注意:docker 镜像托管了一个 Jupyter 服务器,其中包含图像分类和对象检测示例,这些示例演示了使用OpenVINO™与TensorFlow*集成的性能优势。
您可以在Docker桌面上查看镜像的状态,如下所示。
此外,如果您愿意,请查看这篇文章的视频版本以及运行notebook的步骤。您会惊讶地见证增加的加速度和模型的性能如此出色。
https://youtube.com/embed/ulYvbffHa50
视频顶级域名;该视频展示了一个notebook,该notebook涵盖了对象检测用例,并演示了在coco数据集上训练的YOLOv4模型的加速。您可以在GitHub上找到此特定示例。
最后,如果您有兴趣探索更多使用Docker和OpenVINO™与Tensorflow集成的notebook,这里有一些您可能会喜欢的精彩资源的链接。这篇文章深受他们的启发。
链接
OpenVINO™与TensorFlow* GitHub的集成主页:https://github.com/openvinotoolkit/openvino_tensorflow
预构建镜像:
https://github.com/openvinotoolkit/openvino_tensorflow/tree/master/docker#prebuilt-images
用于OpenVINO™与TensorFlow集成的Dockerfiles:
openvino_tensorflow/docker at master · openvinotoolkit/openvino_tensorflow · GitHub
Dockerfiles for TensorFlow Serve with OpenVINO™与TensorFlow集成:
要尝试的notebook:
https://github.com/openvinotoolkit/openvino_tensorflow/blob/master/examples/notebooks
资源
https://www.codeproject.com/Articles/5344844/OpenVINO-Integration-With-TensorFlow-Now-Comes-Wit