YOLO :YOU ONLY LOOK ONCE

YOLO是一种高效的目标检测模型,它通过一次性预测图像中所有物体的位置和类别,实现了端到端的检测。与R-CNN系列不同,YOLO不需要预先提取候选框,而是直接对整个图像进行处理。网络结构包括24个卷积层和2个全连接层,每个网格单元负责预测物体类别和边界框。损失函数考虑了位置、IOU和分类误差,用于模型训练的优化。
摘要由CSDN通过智能技术生成

目录

1、YOLO是什么

2、YOLO 的突破

3、YOLO的原理

1、YOLO是什么

YOLO(you only look once)是目标检测模型,即只需要浏览一次就可以识别图中物体的位置和类别。相较于Region-base检测模型,其不需要提前找到可能存在目标的区域。

2、YOLO 的突破

YOLO是一个end-to-end网络,完成从原始图像的输入到物体位置和类别的输出。即YOLO的预测是基于整个图片的,并且会一次性输出所有检测到的信息,包括类别和位置。YOLO 与R-CNN系列最大的区别:

(1) R-CNN与Fast RCNN采用分离模块(独立于网络之外的selective search方法)先提取可能包含物体的候选框区域,Faster RCNN才用RPN代替selective search方法提取候选框区域。而YOLO 不需要预先提取候选框区域,直接针对整个图片进行物体检测。

(2) R-CNN 系列将检测分为两部分求解,分别为物体类别(分类问题),物体位置(回归问题)。而YOLO是将物体检测作为一个回归问题进行求解,输入图像经过一个推理,便能得到图像中所有物体的位置及其所属类别。

下图为R-CNN系列与YOLO对比:

图1  R-CNN系列与YOLO对比

3、YOLO的原理

3.1 YOLO网络结构

YOLO检测网络包括24个卷积层和2个全连接层,如下图所示。

图2 YOLO 网络结构图

        其中,卷积层用来提取图像特征,全连接层用来预测图像位置和类别概率值。其中,1*1卷积是为了跨通道信息整合。

 3.2 YOLO检测物体

YOLO首先将图片分割为  S*S个grid cell ,每个grid cell的大小都是相等的。若某个物体的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这个物体。

如下图所示,图中狗的中心点落在红色原点的格子内,所以这个格子负责预测图象中狗。

图 3  YOLO检测

具体实现:每个grid cell 都预测出B个bounding boxs,这个bounding boxs有5个量,分别是物体的中心位置(x,y)和它的高(h)和宽(w),以及预测的置信度(confidence)

在处理输入的图片的时候想让图片的大小任意,这一点对于卷积神经网络来说不难。但是,如果输出的位置坐标是一个任意的正实数,模型很可能在大小不同的物体上泛化能力有很大的差异。此时需要对数据进行归一化,让连续数据的值位于0和1之间。

对于x和y而言,由于物体的中心位置在grid中,所以通过让真实的x除以grid的宽度,让真实的y除以grid的高度进行归一化。

对于h和w而言,因为一个物体很可能远大于grid的大小,预测物体的高和宽很可能大于bounding boxs的高和宽,这样w除以bounding boxs的宽度,h除以bounding boxs的高度依旧不在0和1之间。所以通过让w除以整张图片的宽度,h除以整张图片的高度来进行归一化。

对于confidence,confidence反映当前bounding box是否包含物体以及物体位置的准确性。计算公式如下:

 其中,若grid cell中包含物体,则Pr(obj)为1;否则Pr(obj)为0。

每个gird cell不仅预测B个bounding boxs,还要负责预测这个cell中的物体是什么类别的。虽然一个cell有多个bounding boxes,但是只能识别出一个物体,因此每个cell需要预测物体的类别,而bounding box不需要。

 3.2 Loss函数

YOLO使用均方和误差作为loss函数来优化模型参数,即网络输出的S*S*(B*5 + C)维向量与真实图像对应的S*S*(B*5 + C)维向量的均方和误差。如下式所示。其中,coordError、iouErrorclassError分别代表预测数据与标定数据之间的box位置误差、IOU误差和分类误差。

YOLO对上式loss的计算进行了如下修正。

(1) 位置误差与IOU误差、分类误差对网络loss的贡献值是不同的,因此YOLO在计算loss时,使用\lambda =5修正coordError。

(2) 在计算IOU误差时,包含物体的格子与不包含物体的格子,二者的IOU误差对网络loss的贡献值是不同的。若采用相同的权值,那么不包含物体的格子的confidence值近似为0,变相放大了包含物体的格子的confidence误差在计算网络参数梯度时的影响。为解决这个问题,YOLO 对iouError进行修正。
(3) 对于相等的误差值,大物体误差对检测的影响应小于小物体误差对检测的影响。这是因为,相同的位置偏差占大物体的比例远小于同等偏差占小物体的比例。YOLO将物体大小的信息项(w和h)进行求平方根来改进这个问题。

综上所述,YOLO的LOSS如下式所示:

借鉴资料:

 YOLO详解 - 知乎

写给小白的YOLO介绍 - 知乎


 

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于基于YOLO的目标识别算法,以下是一个简单的代码示例: ```python import cv2 import numpy as np # 加载YOLO模型 net = cv2.dnn.readNet("yolov3.weights", "yolov3.cfg") # 获取所有类别名称 with open("coco.names", "r") as f: classes = f.read().splitlines() # 加载图像并进行预处理 img = cv2.imread("image.jpg") height, width, _ = img.shape # 构建输入blob blob = cv2.dnn.blobFromImage(img, 1/255.0, (416, 416), swapRB=True, crop=False) # 设置输入blob到网络中 net.setInput(blob) # 运行前向传播以获取输出层 output_layers_names = net.getUnconnectedOutLayersNames() layer_outputs = net.forward(output_layers_names) # 初始化列表来存储检测结果 boxes = [] confidences = [] class_ids = [] # 遍历每个输出层 for output in layer_outputs: # 遍历每个检测框 for detection in output: scores = detection[5:] class_id = np.argmax(scores) confidence = scores[class_id] if confidence > 0.5: # 将检测结果的坐标映射回原始图像空间 center_x = int(detection[0] * width) center_y = int(detection[1] * height) w = int(detection[2] * width) h = int(detection[3] * height) # 使用检测结果构建边界框 x = int(center_x - w / 2) y = int(center_y - h / 2) # 存储边界框、置信度和类别ID boxes.append([x, y, w, h]) confidences.append(float(confidence)) class_ids.append(class_id) # 应用非极大值抑制来去除重叠的边界框 indexes = cv2.dnn.NMSBoxes(boxes, confidences, 0.5, 0.4) # 绘制边界框和类别标签 font = cv2.FONT_HERSHEY_PLAIN colors = np.random.uniform(0, 255, size=(len(classes), 3)) for i in range(len(boxes)): if i in indexes: x, y, w, h = boxes[i] label = classes[class_ids[i]] confidence = confidences[i] color = colors[class_ids[i]] cv2.rectangle(img, (x, y), (x + w, y + h), color, 2) cv2.putText(img, f"{label} {confidence:.2f}", (x, y - 5), font, 1, color, 2) # 显示结果图像 cv2.imshow("Image", img) cv2.waitKey(0) cv2.destroyAllWindows() ``` 请确保已经下载了YOLO的权重文件(`yolov3.weights`)、配置文件(`yolov3.cfg`)和类别名称文件(`coco.names`)。你可以从YOLO官方网站下载这些文件。 这段代码加载了YOLO模型并使用它在图像上进行目标识别。它将检测到的目标用边界框和类别标签进行绘制,并显示结果图像。请注意,此代码示例仅适用于YOLOv3模型,如果你使用其他版本的YOLO模型,可能需要相应地进行修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值