paddleOCR vs2015编译运行 基于c++引擎推理 CPU版本

1.下载开源项目:https://github.com/PaddlePaddle/PaddleOCR

下载c++预测库:https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/windows_cpp_inference.html

我下载的是预测库v2.0-rc0版本(paddle_inference.zip)

将项目和预测库解压到同意目录下,便于后续进行编译。

2.使用vs2015进行编译,我使用的是vs2015 update3版本。编译运行参考:

官网教程:https://github.com/PaddlePaddle/PaddleOCR/blob/develop/deploy/cpp_infer/docs/windows_vs2019_build.md

博客:https://blog.csdn.net/qq_38836770/article/details/109548170

https://blog.csdn.net/qq_37735796/article/details/108015905

vs2015编译报错解决方法:https://github.com/PaddlePaddle/PaddleOCR/issues/1023

使用release x64而不是debug

编译过程:

      1)使用cmake gui3.16版本编译,修改cpp_infer路径下CmakeLists.txt,在第一行添加

cmake_minimum_required(VERSION 3.16)

 新建目录build,用来保存cmake后的文件。

 

第一次configure时会报错,配置opencv以及paddle库文件,并只在WITH_MKL上打钩。重新configure即可。

cmake-configuration-type选择release。

         2)生成解决方案:此处坑比较多。首先,需确认包含目录、库目录是否正确,编译后自动生成的路径存在问题,需要手动修改。

修改c/c++代码生成-运行库 设置为多线程(/MT)

生成事件-后期生成事件-命令行,修改为正确的路径。

接下来生成解决方案,在release文件夹下,生成exe文件以及dll。将预测库中的paddle_fluid.dll复制到release目录下。

3.运行

下载相应的检测模型:https://github.com/PaddlePaddle/PaddleOCR

找到cpp_infer/tools下config.txt设置如下。

将命令行切换到该路径下,在命令行输入:ocr_system.exe G:\Projects159\OCR\PaddleOCR-develop\deploy\cpp_infer\tools\config.txt test.JPG

如果出现乱码,先输入CHCP 65001,然后再输入上面参数。

通过测试发现,轻量级的模型识别速度快,但精度差些。通用模型识别率较高,速度较慢,大约6s。

后续尝试是否能将该模型部署到win7系统下。

最后分享一个部署可能需要的问题以及解决方案的链接:https://gitee.com/paddlepaddle/PaddleOCR/blob/develop/doc/doc_ch/FAQ.md

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值