毕业设计:基于YOLOv8和卷积神经网络的车牌识别

毕业设计:基于YOLOv8和卷积神经网络的车牌识别


本文介绍的系统的优势

本文介绍的系统是挂载在驱动云的云GPU上的,大部分的云GPU都是需要花钱的,但是驱动云这个GPU你注册会送给你160元的额度(记得跑完代码就关掉,别让其额度一直跑),对于跑毕业设计的我们来说是够了,这样就免去了环境的配置,所以说跟着本文完整的做下来是能够识别车牌,并且识别车牌上的字符,还能识别车牌的颜色,对于做毕业设计来说是够够的了。


一、车牌识别是什么?

车牌识别就是输入一张图片,能够把其中的车牌识别出来,并且识别车牌中的文字,方便我们进行车牌的管理。

二、运行步骤步骤

驱动云网址:https://account.virtaicloud.com/gemini_web/auth/login
注册一个账号,然后登陆进去就好了。
登录驱动云的界面
登录进来之后进入项目的界面,如果你们是新注册的账号的话应该是空的。
在这里插入图片描述
然后点击右上角的创建项目,然后项目名称和项目描述就可以随便写一写
在这里插入图片描述
然后就是添加镜像了,这里我们选择相应的PyTorch的框架就可以了,如果是小白什么都不懂的话直接和我用一样的就行了,直接选中左边的筛选,然后选择最上面这个就可以了,这样就跳过了繁琐的配置PyTorch的过程。然后直接点击创建,然后就等待配置环境。
在这里插入图片描述
然后直接创建就可以了,别的就不用选了,公开性选择私有把,如果是公开的话别能就能看到你的程序了,后续你想做一些调式什么的也就暴露在别人的视野之下了。
在这里插入图片描述
然后直接把我们的代码文件拖入进来,等他进行上传成功之后点击确定。
在这里插入图片描述
然后进入到下面的界面之中,点击运行代码,让实例环境展开
在这里插入图片描述
然后选择资源配置,我们选择最下的这一个就好了,然后点击确定。
在这里插入图片描述
然后我们就会进入开发实例界面,等待一会,然后就会进入下面的界面,等到右上角的进入开发环境装载好,我们点击进入开发环境。
在这里插入图片描述
然后就会进入到下面的界面
在这里插入图片描述
然后把这个welcome关掉,我们自己新写一个Notebook
在这里插入图片描述
点击Notebook上面的Python3来创建一个Notebook
在这里插入图片描述

在里面写上上面的命令,然后Ctrl+回车解压当前的压缩包
在这里插入图片描述
然后进入main的jupyter的界面,我们运行程序。同样的,用鼠标点第一个单元格,然后Ctrl+回车进行运行,等待他进行运行。
在这里插入图片描述

然后我们解释一下,其实原来的待处理的图片是放在了img的里面,如下图所示
在这里插入图片描述
在这里插入图片描述
识别之后的结果是放在了result里面,
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
然后别忘了停止,减少计费
在这里插入图片描述

大家也可以替换一下img里面的图片,换成自己的图片
然后我们来解释一下命令行代码

%run detect_rec_plate.py --detect_model weights/yolov8s.pt  --rec_model weights/rec_color.pth --image_path imgs --output result

detect_rec_plate.py就是我们运行的代码,weights/yolov8s.pt就是放在weights下面的yolov8s,pt的模型,我已经训练好的模型,weights/rec_color.pth是储存在weights下的对车牌颜色的识别的预训练模型,imgs是储存输入图像的文件夹,result是储存输出图像的文件夹。

总结

代码获取链接如下,如果有疑问或者有其他想法的可以私信我,我尽力帮大家解决。
https://mbd.pub/o/bread/mbd-ZZ2Tm5lx

  • 18
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
基于YOLOv8的车辆+车牌检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.96 类别:car、plate 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8源代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集,训练其他模型同理。 data文件夹下的bicycle.yaml文件为数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型,训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练好模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值