毕业设计-基于机器手机外观缺陷视觉检测算法 -YOLO

目录

前言

课题背景和意义

实现技术思路

一、机器视觉缺陷检测方法

二、YOLO-q-v3 算法

实现效果图样例

最后


前言


    📅大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力。近几年各个学校要求的毕设项目越来越难,有不少课题是研究生级别难度的,对本科同学来说是充满挑战。为帮助大家顺利通过和节省时间与精力投入到更重要的就业和考试中去,学长分享优质的选题经验和毕设项目与技术思路。

🚀对毕设有任何疑问都可以问学长哦!

选题指导: https://blog.csdn.net/qq_37340229/article/details/128243277

大家好,这里是海浪学长毕设专题,本次分享的课题是

🎯毕业设计-基于机器手机外观缺陷视觉检测算法 -YOLO 

课题背景和意义

手机是当前人们生活中的必需品,如何高效并且尽可能低成本地制造手机成为了热点之一。而手机的屏幕缺陷检测则是属于手机制造过程中重要的一个环节,如何在这个环节上化繁为简并目提高效率至关重要。传统的人工检测不仅效率低下,并且会增加手机制造成本,还有一些传统的视觉处理方法,通过提取终像特征再通过提取的特征去选择、识别。这种传统的办法虽然降低了人下成本,但是受限于特征提取时的环境以及方式,。使得特征提取环节变得复杂,所以效率也不会太高。因此,寻求一种高效,可靠的基于深度学习的智能化的手机。传统的机器视觉缺陷检测方法虽然可以对一些具有重复性的缺陷进行高效率的检测,但由于这种方法的检测效率对终像的特征选取和特征的选择这两方面有较高的依赖性,并且在实现中有很多的缺陷特征和类型都不同,使得该方法的检测效率并不高,无法作为生产中实时缺陷检测的技术。

实现技术思路

一、机器视觉缺陷检测方法

传统的机器视觉缺陷检测方法

传统的机器视觉缺陷检测方法主要是研究图像的特征选取 特征的选择以及特征的识别这三个方面。在图像特征选取方面.主要研究内容是图像特征的提取 特征的选择和图像的识别。在特征提取时有根据统计量来提取的,也有根据信号域来提取的。获取图像 图像处理和图像反馈三部分组成的,先用特殊的专业相机去获取清晰度高的图像。

基于深度学习的缺陷检测方法
基于深度学习的缺陷检测方法通过卷积计算,将图片的特征参数化,提高了算法的实用性和有效性,可以再通过优化参数从而来提高算法的精准度。将现有的 FCN(FullyConvolutional Network)进行改进,构建了一套适合裂纹检测的全卷积神经网络 Crack FCN,该网络保留FCN网络的优点,输入的图片没有限制。

CNN(Convolutional Neural Network)算法, CNN属于前馈神经网络 是一种包含了卷积计算的深度学习网络。CNN网络一般包括了卷积层、池化层和全连接层。卷积神经网络的主要模型包括LeNet模型、 AlexNet模型,VGGNet模型和ResNet模型等。

二、YOLO-q-v3 算法

YOLO-q-v3 算法采用 53层卷积层.其中卷积层由 filters 过滤器和激活函数构成.通过设定Glter 的数值,按照设置的步长不断地提取冬片的特征,从局部特征再到总体的特征,从而完成终像的识别。卷积层的参数包括了卷积核的大小 步长和填充。卷积层里面有多个卷积核,卷积核的大小影响了选择区域的大小即感受野的大小卷积核越大提取的图片特征越复杂。全连接层的作用是将经过卷积层和池化池处理后的数据串联起来,再对串联出的结果进行识别和分类。全连接层接受卷积层或者池化层的输入,并输出一个多维向量。

YOLO-q-v3 算法设计
 YOLO-q-v3 算法中用于提取特征的主要网络是卷积神经网络 DarkNet-53。DarkNet-53 提取了 ResNet 网络的优点,它在某些卷积层之间添加了一条快捷路径.这条路径和卷积层形成了残差组件。残差组件可以使得网络层数相应减少 参数减少从而减少计算量,使得 DarkNet-53 的性能得到了较大提升。

 YOL0-q-v3 算法还采用了FPN(Feature Pyramid Net- works)的结构改善对较小物体的检测结果,每一个特征图被拿来做了边界框回归,其中尺寸最小的顶层特征用来检测较大的物体而尺寸较大的特征图则用来检测较小的物体。如果是单一尺度检测器.尺度太大而数据集上特征过小就会导致生成的锚框对小特征检测效果不好。

算法实现
Y0L0-q-v3 算法实现步骤如图所示,首先通过特征提取网络DarkNe-53 对输入的图像进行特征提取,得到不同尺度大小的特征图,然后对图像的特征图进行网格划分.划分出来的网格可以负责来预测落在该网格中的真实边界框中的目标。每个目标有固定数量的边界框在YOLO-a-y3中有3个边界框:最后使用逻辑回归来确定预测的同归框。

1)检测框预测
如图改进算法直接预测相对位置,预测出b-box中心点相对于网格单元左上角的相对坐标。

 根据anchor的预测值来预测宽和高的公式如下:

3)损失函 数
本文算法在计算损失函数时,根据 IOU(Intersection over Union)对预测框结果进行 分类, IOU 的计 算公式 为:

YOLO v3 算 法 的 损 失 函 数 与 每 个 特 征 图 的 相 关 损失 有 关 , 其 中 每 个 特 征 图 的 损 失 lossN1 与 预 测 框 大 小 和位置 相关 lossbox、预测结 果置 信度相 关 losscon、预 测 分 类 结
果 相关 lossclass 有关,公 式如 下:

实现效果图样例

智能视觉手机缺陷检测系统是维视图像:

 

 

我是海浪学长,创作不易,欢迎点赞、关注、收藏、留言。

毕设帮助,疑难解答,欢迎打扰!

最后

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值