目标检测进阶:使用深度学习和 OpenCV 进行目标检测

本文介绍如何利用深度学习模型MobileNet SSD及OpenCV进行目标检测。首先,从磁盘加载模型并处理输入图像,接着进行前向传播得到检测结果。然后,根据置信度阈值过滤弱检测,提取类别标签和边界框坐标,用彩色矩形和标签在图像上显示预测结果。最后,展示输出图像,并提供了一个完整的video_object_detection.py脚本示例,用于处理视频帧的目标检测。
摘要由CSDN通过智能技术生成

blob = cv2.dnn.blobFromImage(cv2.resize(image, (300, 300)), 0.007843,

(300, 300), 127.5)

通过网络传递blob并获得检测结果和

预测

print(“[INFO] computing object detections…”)

net.setInput(blob)

detections = net.forward()

从磁盘加载模型。

读取图片。

提取高度和宽度(第 35 行),并从图像中计算一个 300 x 300 像素的 blob。

将blob放入神经网络。

计算输入的前向传递,将结果存储为 detections。

循环检测结果

for i in np.arange(0, detections.shape[2]):

提取与数据相关的置信度(即概率)

预测

confidence = detections[0, 0, i, 2]

通过确保“置信度”来过滤掉弱检测

大于最小置信度

if confidence > confidence_ta:

detections中提取类标签的索引,

然后计算物体边界框的 (x, y) 坐标

idx = int(detections[0, 0, i, 1])

box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])

(startX, startY, endX, endY) = box.astype(“int”)

显示预测

label = “{}: {:.2f}%”.format(CLASSES[idx], confidence * 100)

print(“[INFO] {}”.format(label))

cv2.rectangle(image, (startX, startY), (endX, endY),

COLORS[idx], 2)

y = startY - 15 if startY - 15 > 15 else startY + 15

cv2.putText(image, label, (startX, y),

cv2.FONT_HERSHEY_SIMPLEX, 0.5, COLORS[idx], 2)

show the output image

cv2.imshow(“Output”, image)

cv2.imwrite(“output.jpg”, image)

cv2.waitKey(0)

循环检测,首先我们提取置信度值。

如果置信度高于我们的最小阈值,我们提取类标签索引并计算检测到的对象周围的边界框。

然后,提取框的 (x, y) 坐标,我们将很快使用它来绘制矩形和显示文本。

接下来,构建一个包含 CLASS 名称和置信度的文本标签。

使用标签,将其打印到终端,然后使用之前提取的 (x, y) 坐标在对象

  • 25
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值