基于PaddleOCR的DBNet神经网络实现全网最快最准的身份证识别

目的

全网的身份证识别大部分都是通过识别整张图片,然后再对数据进行格式化解析,这会照成很大的局限性,比如非摆正图片,图片上有其他干扰信息,这就会导致通过此方式来识别大大降低了准确率和不确定性。这篇文章将会通过专业性角度来讲解如何更好的进行相关卡证的识别。

准备工作

在进行讲解之前,需要先做好以下准备:

1、安装PyCharm进行开发,Download PyCharm: Python IDE for Professional Developers by JetBrains

2、下载relese/2.6版本的PaddleOCR,git clone -b release/2.6 https://github.com/PaddlePaddle/PaddleOCR.git

3、学习此篇文章【基于PaddleOCR的DBnet多分类文本检测网络】,这里就用到了多分类文本检测网络来达到我们的需求。

实现识别

1、数据集格式

分类文本:前六个分类是身份证正面,后两个分类是身份证背面

2、修改配置

数据集分两部分,一部分是真实数据,另一部分是合成数据。

注:Eval.transforms.DetResizeForTest设置resize_long: 960

Global:
  ...
  label_list: "train_data/sfz/label_list.txt" #新增一个分类文件
  num_classes: 9    # 新增一个分类数量
 
...
 
Train:
  dataset:
    name: SimpleDataSet
    data_dir: train_data/sfz/
    label_file_list:
      - "train_data/sfz/real/real_det_train.txt"
      - "train_data/sfz/shenfenzheng/det_train.txt"
    ratio_list: [ 1.0 , 0.2 ]
    ...
    transforms:
      ...
      - KeepKeys:
          keep_keys: [ 'image', 'threshold_map', 'threshold_mask', 'shrink_map', 'shrink_mask', 'class_mask' ] # 新增一个class_mask
    ...
 
Eval:
  dataset:
    name: SimpleDataSet
    data_dir: train_data/sfz/
    label_file_list:
      - "train_data/sfz/real/real_det_test.txt"
      - "train_data/sfz/shenfenzheng/det_test.txt"
    ratio_list: [ 1.0 , 0.2 ]
  transforms:
      - DecodeImage: # load image
          img_mode: BGR
          channel_first: False
      - DetLabelEncode: # Class handling label
      - DetResizeForTest:
          resize_long: 960
    ...

3、执行命令进行GPU训练

python -m paddle.distributed.launch --gpus 0 tools/train.py -o Global.use_visualdl=True -c configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0_sfz.yml

4、显示运行图

从图上可以看到多出一个多分类loss_classes 运行图,根据本数据集测试,hmean的值可达到99%以上。

5、验证模型

调整infer_det.py绘制代码,添加文本显示。

def draw_det_res_and_label(dt_boxes, classes, config, img, img_name, save_path):
    label_list = config["Global"]["label_list"]
    labels = []
    if label_list is not None:
        if isinstance(label_list, str):
            with open(label_list, "r+", encoding="utf-8") as f:
                for line in f.readlines():
                    labels.append(line.replace("\n", ""))
        else:
            labels = label_list
    if len(dt_boxes) > 0:
        import cv2
        index = 0
        src_im = img
        for box in dt_boxes:
            box = box.astype(np.int32).reshape((-1, 1, 2))
            cv2.polylines(src_im, [box], True, color=(255, 255, 0), thickness=2)

            font = cv2.FONT_HERSHEY_SIMPLEX
            src_im = cv2.putText(src_im, labels[classes[index]], (box[0][0][0], box[0][0][1]), font, 0.5, (255, 0, 0), 1)
            index += 1
        if not os.path.exists(save_path):
            os.makedirs(save_path)
        save_path = os.path.join(save_path, os.path.basename(img_name))
        cv2.imwrite(save_path, src_im)
        logger.info("The detected Image saved in {}".format(save_path))
python tools/infer_det.py -c configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0_sfz.yml -o Global.pretrained_model=./output/ch_db_mv3_sfz/best_accuracy Global.infer_img=E:\dataset\shenfenzheng\images\det\001.png

 6、导出模型

python tools/export_model.py -c configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0_sfz.yml -o Global.pretrained_model="./output/ch_db_mv3_sfz/best_accuracy" Global.save
_inference_dir="./inference/ch_db_mv3_sfz/"

模型非常小,仅仅比没有分类文本检测模型大一点点。

小结

到这一步,身份证多分类检测模型就完成了,测试效果非常好,再配合PaddleOCR本身的文字检测和识别功能,可达到非常好的效果,支持各种格式身份证识别,例如藏族、朝鲜族和维吾尔族等,完全可达到商业级别,加QQ【2952855968】可以获取身份证识别模型和python、c++、端侧等部署代码,需要测试准确率可下载:一键部署文字识别和身份证识别服务

  • 3
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 15
    评论
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

番茄小能手

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值