2024年最全物体检测实战:使用 OpenCV 进行 YOLO 对象检测(2),面试大厂之前要到达什么水平

文末有福利领取哦~

👉一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。img

👉二、Python必备开发工具

img
👉三、Python视频合集

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
img

👉 四、实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(文末领读者福利)
img

👉五、Python练习题

检查学习结果。
img

👉六、面试资料

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
img

img

👉因篇幅有限,仅展示部分资料,这份完整版的Python全套学习资料已经上传

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

│ └── overpass.mp4

├── yolo-coco

│ ├── coco.names

│ ├── yolov3.cfg

│ └── yolov3.weights

├── yolo.py

└── yolo_video.py

我们今天的项目由 4 个目录和两个 Python 脚本组成。

目录(按重要性排序)是:

yolo-coco文件夹:YOLOv3 物体检测器模型文件

images文件夹:存放用于评估的图像。

videos文件夹 :存放用于评估的视频

output: 评估后的结果。

yolo.py:评估图像

yolo_video.py :评估视频

检测图像

===============================================================

新建文件yolo_objectdetection.py

import the necessary packages

import numpy as np

import argparse

import time

import cv2

import os

image_path=‘11.jpg’

yolo=‘yolo_coco’

confidence_t=0.5

threshold=0.3

加载训练 YOLO 模型的 COCO 类标签

labelsPath = os.path.sep.join([yolo, “coco.names”])

LABELS = open(labelsPath).read().strip().split(“\n”)

初始化一个颜色列表来表示每个类标签

np.random.seed(42)

COLORS = np.random.randint(0, 255, size=(len(LABELS), 3),

dtype=“uint8”)

YOLO 对象检测

print(“[INFO] loading YOLO from disk…”)

config_path = ‘./yolo_coco/yolov3.cfg’

weights_path = ‘./yolo_coco/yolov3.weights’

net = cv2.dnn.readNetFromDarknet(config_path, weights_path)

导入包。

定义全局参数:

  • image_path:定义图片的路径。

  • yolo:定义模型存放的路径

  • confidence_t:过滤弱检测的最小概率。

  • threshold:非最大值抑制阈值。

接下来,加载了所有的类 LABELS。然后,为每个标签分配随机颜色。

加载权重文件。

加载我们的输入图像并获取其空间维度

image = cv2.imread(image_path)

(H, W) = image.shape[:2]

从输入图像构建一个blob,然后执行一个前向传播

通过 YOLO 对象检测器,输出边界框和相关概率

blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416),

swapRB=True, crop=False)

net.setInput(blob)

start = time.time()

获取网络输出层信息(所有输出层的名字),设定并前向传播

outInfo = net.getUnconnectedOutLayersNames()

得到各个输出层的、各个检测框等信息,是二维结构。

layerOutputs = net.forward(outInfo)

加载输入图像并提取其尺寸。

从 YOLO 模型取出输出层名称。

构建一个 blob(第 48 和 49 行)。

cv2.dnn.blobFromImage(image[, scalefactor[, size[, mean[, swapRB[, crop[, ddepth]]]]]])

作用:

对图像进行预处理,包括减均值,比例缩放,裁剪,交换通道等,返回一个4通道的blob(blob可以简单理解为一个N维的数组,用于神经网络的输入)

参数:

  • image:输入图像(1、3或者4通道)

可选参数

  • scalefactor:图像各通道数值的缩放比例
  • size:输出图像的空间尺寸,如size=(200,300)表示高h=300,宽w=200
  • mean:用于各通道减去的值,以降低光照的影响(e.g. image为bgr3通道的图像,mean=[104.0, 177.0, 123.0],表示b通道的值-104,g-177,r-123)
  • swapRB:交换RB通道,默认为False.(cv2.imread读取的是彩图是bgr通道)
  • crop:图像裁剪,默认为False.当值为True时,先按比例缩放,然后从中心裁剪成size尺寸
  • ddepth:输出的图像深度,可选CV_32F 或者 CV_8U.

通过我们的 YOLO 网络执行前向传递

显示 YOLO 的推理时间

接下来我们实现图像的可视化操作:

分别初始化检测到的边界框、置信度和类 ID 的列表

boxes = []

confidences = []

classIDs = []

循环输出

for output in layerOutputs:

遍历每个检测结果

for detection in output:

提取物体检测的类ID和置信度(即概率)

scores = detection[5:]

classID = np.argmax(scores)

confidence = scores[classID]

过滤精度低的结果

if confidence > confidence_t:

延展边界框坐标,计算 YOLO 边界框的中心 (x, y) 坐标,然后是框的宽度和高度

box = detection[0:4] * np.array([W, H, W, H])

(centerX, centerY, width, height) = box.astype(“int”)

使用中心 (x, y) 坐标导出边界框的上角和左角

x = int(centerX - (width / 2))

y = int(centerY - (height / 2))

更新边界框坐标、置信度和类 ID 列表

boxes.append([x, y, int(width), int(height)])

confidences.append(float(confidence))

classIDs.append(classID)

使用非极大值抑制来抑制弱的、重叠的边界框

idxs = cv2.dnn.NMSBoxes(boxes, confidences, confidence_t,

threshold)

确保至少存在一个检测

if len(idxs) > 0:

遍历我们保存的索引

for i in idxs.flatten():

提取边界框坐标

(x, y) = (boxes[i][0], boxes[i][1])

(w, h) = (boxes[i][2], boxes[i][3])

在图像上绘制一个边界框矩形和标签

color = [int© for c in COLORS[classIDs[i]]]

cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)

text = “{}: {:.4f}”.format(LABELS[classIDs[i]], confidences[i])

cv2.putText(image, text, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX,

0.5, color, 2)

show the output image

cv2.imshow(“Image”, image)

cv2.waitKey(0)

初始化列表:

  • box :我们围绕对象的边界框。

  • 置信度:YOLO 分配给对象的置信度值。 较低的置信度值表明对象可能不是网络认为的那样。 从上面的命令行参数中记住,我们将过滤掉不满足 0.5 阈值的对象。

  • classIDs :检测到的对象的类标签。

循环遍历每个 layerOutputs。

循环输出中的每个检测项。

提取 classID 和置信度。

过滤掉弱检测项。

到这里已经得到了高精度的检测项,然后:

延展边界框坐标,以便可以在原始图像上正确显示它们。

提取边界框的坐标和尺寸。 YOLO 以以下形式返回边界框坐标: (centerX, centerY, width, and height) 。

使用此信息计算出边界框的左上角 (x, y) 坐标。

更新 box 、 confidences 和 classIDs 列表。

然后使用NMS过滤冗余和无关的边界框。

接下主要将结果绘制到图片上。

运行结果:

https://gitee.com/wanghao1090220084/cloud-image/raw/master/image-20220107195644079.png

检测视频

===============================================================

现在我们已经学习了如何将 YOLO 对象检测器应用于单个图像,接下来尝试检测视频或者摄像头中的物体。

新建 yolo_video.py 文件并插入以下代码:

import numpy as np

import imutils

import time

import cv2

import os

yolo = ‘yolo_coco’

confidence_t = 0.5

threshold = 0.3

output = ‘output.avi’

导入需要的包

定义全局参数:

  • yolo:定义模型存放的路径

  • confidence_t:过滤弱检测的最小概率。

  • threshold:非最大值抑制阈值。

  • output:输出的视频结果

加载YOLO 模型训练的 COCO 类标签

labelsPath = os.path.sep.join([yolo, “coco.names”])

LABELS = open(labelsPath).read().strip().split(“\n”)

初始化颜色列表

np.random.seed(42)

COLORS = np.random.randint(0, 255, size=(len(LABELS), 3), dtype=“uint8”)

配置 YOLO 权重和模型配置的路径

weightsPath = os.path.sep.join([yolo, “yolov3.weights”])

configPath = os.path.sep.join([yolo, “yolov3.cfg”])

加载在 COCO 数据集(80 个类)上训练的 YOLO 对象检测,并获取YOLO输出层的名称

net = cv2.dnn.readNetFromDarknet(configPath, weightsPath)

获取网络输出层信息(所有输出层的名字),设定并前向传播

outInfo = net.getUnconnectedOutLayersNames()

初始化视频流、指向输出视频文件的指针和帧尺寸

vs = cv2.VideoCapture(0)

writer = None

(W, H) = (None, None)

获取文件的总帧数。

try:

prop = cv2.cv.CV_CAP_PROP_FRAME_COUNT if imutils.is_cv2() \

else cv2.CAP_PROP_FRAME_COUNT

total = int(vs.get(prop))

print(“[INFO] {} total frames in video”.format(total))

except:

print(“[INFO] could not determine # of frames in video”)

print(“[INFO] no approx. completion time can be provided”)

total = -1

这段代码的步骤:

读取类别。

给每个类别初始化颜色。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 25
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值