1、从github上将PaddleOCR拷贝到本地
git clone https://github.com/PaddlePaddle/PaddleOCR
2、点击下方的链接,在推理模型中下载移动端的监测模型、方向分类器、识别模型到本地
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.1/doc/doc_en/quickstart_en.md
3、在pycharm里打开PaddleOCR文件,并在该项目里创建一个新的目录inference。在终端(Terminal)处输入命令,将刚刚下载到本地的模型移动到inference的目录下。
mkdir inference
mv ~/Desktop/ch_ppocr_mobile_v2.0_cls_infer/ ./inference
mv ~/Desktop/ch_ppocr_mobile_v2.0_det_infer/ ./inference
mv ~/Desktop/ch_ppocr_mobile_v2.0_rec_infer/ ./inference
如果移动到inference目录下的文件是压缩包,可以通过解压缩命令将压缩包进行解压:
tar -xvf ch_ppocr_mobile_v2.0_cls_infer.tar
最后,inference目录下的文件情况如下: