使用OpenCV调用yolo3 GPU版

本文介绍如何使用OpenCV的DNN模块在GPU上加速YOLOv3的运行。通过设置preferable backend和target为CUDA,显著提高了处理速度。在CPU上运行需400ms/张图片,而在GPU上则降低到30ms/张,速度提升约10倍。
摘要由CSDN通过智能技术生成

使用OpenCV的DNN模块调用yolo3默认是CPU版本的,而且也不是真的调用yolo3,只是需要一个权重weights文件,一个配置cfg文件和一个标签列表names文件。

【重要部分】

网上的关于这一块的代码都大同小异,但是关键的地方在于一次加载多次调用,简单的加入

net.setPreferableBackend(cv.dnn.DNN_BACKEND_CUDA)

net.setPreferableTarget(cv.dnn.DNN_TARGET_CUDA)

这两句话是不管用的,实际运行速度和CPU的没区别。

先看一段代码:

# -*- coding: utf-8 -*
import numpy as np
import cv2 as cv
import os
import time

yolo_dir = '/home/ubuntu/model/yolo3'  # YOLO文件路径
weightsPath = os.path.join(yolo_dir, 'yolov3-test.weights')  # 权重文件
configPath = os.path.join(yolo_dir, 'yolov3-test.cfg')  # 配置文件
labelsPath = os.path.join(yolo_dir, 'test.names')  # label名称
imgPath = os.path.join(yolo_dir, 'test.jpg')  # 测试图像
CONFIDENCE = 0.25  # 过滤弱检测的最小概率
THRESHOLD = 0.2  # 非最大值抑制阈值

#批量图片检测和保存位置
test_dir = '/home/ubuntu/model/yolo4-tiny/imgs'
save_dir = '/home/ubuntu/model/yolo4-tiny/imgsResultV3'

# 加载网络、配置权重
net = cv.dnn.readNetFromDarknet(configPath, weightsPath)  # #  利用下载的文件


#批量加载图像
pics = os.listdir(test_dir)
start = time.time()
minTime = 10;
maxTime = 0;
for im in pics:
# 加载图片、转为blob格式、送入网络输入层
    s = time.time()
    imgPath = os.path.join(test_dir,im)
    img = cv.imread(imgPath)
    blobImg = cv.dnn.blobFromImage(img, 1.0/255.0, (416, 416), None, True, False)   # # net需要的输入是blob格式的,用blobFromImage这个函数来转格式
    net.setInput(blobImg)  # # 调用setInput函数将图片送入输入层

    # 获取网络输出层信息(所有输出层的名字),设定并前向传播
    outInfo = net.getUnconnectedOutLayersNames()  # # 前面的yolov3架构也讲了,yolo在每个scale都有输出,outInfo是每个scale的名字信息,供net.forward使用
    layerOutputs = net.forward(outInfo)  # 得到各个输出层的、各个检测框等信息,是二维结构。
    # 拿到图片尺寸
    (H, W) &#
  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
你可以使用OpenCV调用YOLO(You Only Look Once)对象检测算法。首先,确保已经安装了OpenCVYOLO的相关文件。然后,按照以下步骤进行操作: 1. 加载YOLO模型和相应的配置文件: ``` net = cv2.dnn.readNetFromDarknet(config_path, weights_path) ``` 这里的`config_path`是YOLO配置文件的路径,`weights_path`是预训练权重文件的路径。 2. 获取模型的输出层信息: ``` output_layer_names = net.getLayerNames() output_layers = [output_layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()] ``` 3. 加载图像并将其转换为blob格式: ``` blob = cv2.dnn.blobFromImage(image, scalefactor=0.00392, size=(416, 416), mean=(0, 0, 0), swapRB=True, crop=False) ``` 这里的`image`是要检测的图像。 4. 将blob输入到网络中进行前向传播: ``` net.setInput(blob) outs = net.forward(output_layers) ``` 5. 解析网络的输出结果并提取检测到的物体信息: ``` class_ids = [] confidences = [] boxes = [] for out in outs: for detection in out: scores = detection[5:] class_id = np.argmax(scores) confidence = scores[class_id] if confidence > threshold: center_x = int(detection[0] * width) center_y = int(detection[1] * height) w = int(detection[2] * width) h = int(detection[3] * height) x = int(center_x - w / 2) y = int(center_y - h / 2) class_ids.append(class_id) confidences.append(float(confidence)) boxes.append([x, y, w, h]) ``` 这里的`threshold`是设置的置信度阈值,可以根据需要进行调整。 6. 使用非最大值抑制(Non-Maximum Suppression)进行物体框去重: ``` indices = cv2.dnn.NMSBoxes(boxes, confidences, confidence_threshold, nms_threshold) ``` 这里的`confidence_threshold`是筛选框的置信度阈值,`nms_threshold`是非最大值抑制的阈值。 7. 根据结果绘制检测到的物体框和类别标签: ``` for i in indices: i = i[0] box = boxes[i] x, y, w, h = box[0], box[1], box[2], box[3] cv2.rectangle(image, (x, y), (x + w, y + h), (0, 255, 0), 2) label = str(classes[class_ids[i]]) confidence = confidences[i] cv2.putText(image, label + " " + str(round(confidence, 2)), (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2) ``` 这里的`classes`是标签名列表,可以根据YOLO模型的类别进行设置。 最后,你可以显示或保存带有物体检测结果的图像: ``` cv2.imshow("YOLO Object Detection", image) cv2.waitKey(0) cv2.destroyAllWindows() ``` 这就是使用OpenCV调用YOLO进行对象检测的基本步骤。你可以根据自己的需求进行调整和扩展。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值