1.下载开源项目:https://github.com/PaddlePaddle/PaddleOCR
我下载的是预测库v2.0-rc0版本(paddle_inference.zip)
将项目和预测库解压到同意目录下,便于后续进行编译。
2.使用vs2015进行编译,我使用的是vs2015 update3版本。编译运行参考:
官网教程:https://github.com/PaddlePaddle/PaddleOCR/blob/develop/deploy/cpp_infer/docs/windows_vs2019_build.md
博客:https://blog.csdn.net/qq_38836770/article/details/109548170
https://blog.csdn.net/qq_37735796/article/details/108015905
vs2015编译报错解决方法:https://github.com/PaddlePaddle/PaddleOCR/issues/1023
使用release x64而不是debug。
编译过程:
1)使用cmake gui3.16版本编译,修改cpp_infer路径下CmakeLists.txt,在第一行添加
cmake_minimum_required(VERSION 3.16)
新建目录build,用来保存cmake后的文件。
第一次configure时会报错,配置opencv以及paddle库文件,并只在WITH_MKL上打钩。重新configure即可。
cmake-configuration-type选择release。
2)生成解决方案:此处坑比较多。首先,需确认包含目录、库目录是否正确,编译后自动生成的路径存在问题,需要手动修改。
修改c/c++代码生成-运行库 设置为多线程(/MT)
生成事件-后期生成事件-命令行,修改为正确的路径。
接下来生成解决方案,在release文件夹下,生成exe文件以及dll。将预测库中的paddle_fluid.dll复制到release目录下。
3.运行
下载相应的检测模型:https://github.com/PaddlePaddle/PaddleOCR
找到cpp_infer/tools下config.txt设置如下。
将命令行切换到该路径下,在命令行输入:ocr_system.exe G:\Projects159\OCR\PaddleOCR-develop\deploy\cpp_infer\tools\config.txt test.JPG
如果出现乱码,先输入CHCP 65001,然后再输入上面参数。
通过测试发现,轻量级的模型识别速度快,但精度差些。通用模型识别率较高,速度较慢,大约6s。
后续尝试是否能将该模型部署到win7系统下。
最后分享一个部署可能需要的问题以及解决方案的链接:https://gitee.com/paddlepaddle/PaddleOCR/blob/develop/doc/doc_ch/FAQ.md