openvino的软硬件测试+yolov3的加速推理测试

openvino的软硬件测试+yolov3的加速推理测试

文章最后有整个项目的下载链接
软件使用测评
1.对于openvino软件平台,我首先在个人电脑上进行了安装测试,使用的是openvino_2020.2.117版本,电脑配置如下图所示:**
在这里插入图片描述在这里插入图片描述
2.需要的环境配置好之后(VS2017、CMake3.14、Opencv4、Anaconda3下的python3.6)安操作是很简单,不过安装的时候由于VS2017、Opencv 版本以及CMake3.14兼容性出现了很多问题,都一一解决,一路磕磕绊绊的总算是安装好了。
3.进行了多个demo的验证测试
3.1第一个进行的是face_recognition_demo
在这里插入图片描述
长得丑就不露脸了,直接手机搜了一张图片,速度很快,精度也很高。
3.2第二个进行的是classification_sample
在这里插入图片描述
3.3第三个是demo_squeezenet_download_convert_run.bat在这里插入图片描述
3.4进行了对yolov3的openvino推理模型的对比测试
3.4.1没有经过openvino推理加速的yolov3模型,检测速度尚可,精度很高,如下图所示
在这里插入图片描述
3.4.2经过openvino推理加速之后的,这是-d CPU下,速度那是杠杠的,但是精度有所下降
在这里插入图片描述
**3.4.3这是-d MYRIAD 使用了神经计算棒,速度也很快
在这里插入图片描述
4. 利用yolov3训练自己的数据(检测箱子以及缺陷),然后将训练好的yolov3模型转换成openvino的IR形式,加速推理。(转换的过程中,遇到了很多问题,我是通过以下的方式进行的转换)

在这里插入图片描述
4.1 未用openvino加速的检测情况(未转化为IR)

4.2 用了openvino加速推理的情况 -d CPU (转化为IR)
在这里插入图片描述
4.3 用了openvino加速推理的情况 -d GPU (转化为IR)
在这里插入图片描述
在这里插入图片描述

硬件使用测评
硬件平台使用的是LattePanda,刚开始拿到手,组装很简单,就是wifi模块有点不太好安装。然后激活,根据在自己PC上的安装经验,在LattePanda安装了Windows下的openvino的运行环境,Intel神经计算棒NCS2的性能不错,可以很方便地把训练好的网络模型做优化,并加以部署。

整个项目的下载链接(比较大,包含了我所有的模型、数据、文档)
项目下载链接
提取码:yolo

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值