LPRNet车牌识别模型训练及CCPD数据集预处理

LPRNet车牌识别模型训练及CCPD数据集预处理

1 LPRNet车牌识别模型训练

1.1 源码:LPRNet_Pytorch-master

源码官网:GitHub - sirius-ai/LPRNet_Pytorch: Pytorch Implementation For LPRNet, A High Performance And Lightweight License Plate Recognition Framework.

链接:https://pan.baidu.com/s/1nMzJ2reDcGA6RJnHnNzcWg?pwd=lprn 
提取码:lprn
本人上传的代码包含部分修改及训练测试命令等... ...
详询+V号:   xuanze500

1.2 LPRNet_Pytorch训练及测试注意项

1.2.1 数据集

包含datas/train和datas/test文件夹,文件夹中是以车牌命名的.jpg文件,如“晋A30YS6.jpg”、“桂AR8501.jpg”、“鲁Q08L9D.jpg”等,且每一张.jpg的图是根据车牌四个角点截取的矩形车牌的图片。示例如下:

在这里插入图片描述

1.2.2 训练参数

(1)/LPRNet_Pytorch-master/train_LPRNet.py参数截取

def get_parser():
    parser = argparse.ArgumentParser(description='parameters to train net')
    parser.add_argument('--max_epoch', default=495, help='epoch to train the network')  ##################
    parser.add_argument('--img_size', default=[94, 24], help='the image size')       
    parser.add_argument('--train_img_dirs', default="/media/user/mydata/zzplates/train", help='the train images path')
    parser.add_argument('--test_img_dirs', default="/media/user/mydata/zzplates/test", help='the test images path')
    parser.add_argument('--dropout_rate', default=0.5, help='dropout rate.')
    parser.add_argument('--learning_rate', default=0.0001, help='base value of learning rate.')
    # parser.add_argument('--learning_rate', default=0.1, help='base value of learning rate.')
    parser.add_argument('--lpr_max_len', default=8, help='license plate number max length.')
    parser.add_argument('--train_batch_size', default=512, help='training batch size.')
    parser.add_argument('--test_batch_size', default=128, help='testing batch size.')
    parser.add_argument('--phase_train', default=True, type=bool, help='train or test phase flag.')
    parser.add_argument('--num_workers', default=1, type=int, help='Number of workers used in dataloading')
    parser.add_argument('--cuda', default=True, type=bool, help='Use cuda to train model')
    parser.add_argument('--resume_epoch', default=0, type=int, help='resume iter for retraining')
    parser.add_argument('--save_interval', default=5000, type=int, help='interval for save model state dict')
    parser.add_argument('--test_interval', default=5000, type=int, help='interval for evaluate')
    parser.add_argument('--momentum', default=0.9, type=float, help='momentum')
    parser.add_argument('--weight_decay', default=2e-5, type=float, help='Weight decay for SGD')
    parser.add_argument('--lr_schedule', defau
  • 45
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
您好!对于使用YOLOv5训练CCPD(Chinese CityParking Dataset)数据集的步骤,您可以按照以下几个主要步骤进行操作: 1. 数据集准备:下载CCPD数据集并进行数据清洗和标注。CCPD数据集是一个用于车牌检测和识别的中文城市停车场数据集。您可以从CCPD官方网站(https://github.com/detectRecog/CCPD)下载数据集,并根据自己的需求进行数据清洗和标注。 2. 数据集划分:将整个数据集划分为训练集、验证集和测试集。通常建议将数据集划分为70%的训练集,10%的验证集和20%的测试集。这样可以用训练集进行模型训练,验证集用于调整模型的超参数,而测试集用于评估模型的性能。 3. 模型配置:在YOLOv5的配置文件(`yolov5/models/yolov5*.yaml`)中,根据您的需求设置模型的参数,例如batch size、学习率等。此外,还需要确定模型输出的类别数量,对于车牌检测和识别问题,通常为一个类别(车牌)。 4. 数据增强:为了增加训练样本的多样性和鲁棒性,建议使用数据增强技术。YOLOv5已内置了一些数据增强方法,如随机裁剪、缩放、旋转、翻转等,您可以在配置文件中设置相应的参数来启用这些增强方法。 5. 模型训练:使用YOLOv5的训练脚本(`yolov5/train.py`)进行模型训练。在训练脚本中,您需要指定训练集、验证集的路径,选择使用的模型配置文件,设置训练的超参数等。运行训练脚本后,模型将在训练集上进行迭代优化,直到达到指定的停止条件。 6. 模型评估:使用测试集对训练好的模型进行评估,计算模型的精度、召回率等指标。YOLOv5提供了一个评估脚本(`yolov5/test.py`),您可以通过指定测试集的路径、模型文件路径等参数来运行评估脚本。 以上是使用YOLOv5训练CCPD数据集的主要步骤。请注意,具体的操作可能因您的数据集和需求而有所差异,您可以根据实际情况进行相应的调整和优化。希望对您有所帮助!如有更多问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱吃油淋鸡的莫何

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值