基于PaddleOCR解决文本检测训练模型与inference模型预测效果不一致的问题更简单的解决方法

解决方法

在模型预测时加入参数–det_limit_type=“resize_long”

这样在不需要修改代码也可以解决该问题.

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
您好!要将PaddleOCR训练模型转换为ONNX格式,您可以按照以下步骤进行操作: 1. 安装依赖: ```bash pip install paddlepaddle paddleocr onnxruntime ``` 2. 导入PaddleOCR和相关库: ```python import paddleocr import paddle.fluid as fluid import onnx import onnxruntime ``` 3. 加载PaddleOCR训练模型: ```python paddleocr.OCR(rec_img_shapes=[3, 32, 320], rec_char_type='ch', \ use_gpu=False, use_angle_cls=True) model_path = 'your_model_path' model = paddleocr.load_model(model_path) ``` 4. 定义输入和输出的变量: ```python input_names = ['image'] output_names = ['ctc_greedy_decoder_0.tmp_0'] input_spec = fluid.core.VarDesc.VarType.LOD_TENSOR output_spec = fluid.core.VarDesc.VarType.LOD_TENSOR ``` 5. 创建PaddlePaddle的Executor,并加载模型参数: ```python exe = fluid.Executor(fluid.CPUPlace()) [inference_program, feed_target_names, fetch_targets] = \ fluid.io.load_inference_model(dirname=model_path, executor=exe) ``` 6. 使用PaddlePaddle的Fluid框架将模型转换为ONNX格式: ```python paddle.onnx.export( inference_program, path="model.onnx", input_spec=[(input_names[0], input_spec)], output_spec=[(output_names[0], output_spec)], opset_version=11, enable_onnx_checker=True) ``` 7. 至此,您已经成功将PaddleOCR训练模型转换为ONNX格式,并保存为"model.onnx"文件。 请确保您按照上述步骤操作,并将"your_model_path"替换为您的模型路径。如果您使用的是GPU,请将"use_gpu"参数设置为True,同时将"fluid.CPUPlace()"替换为"fluid.CUDAPlace(0)"。 希望对您有所帮助!如有多疑问,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值