Python实现YOLO目标检测

# -*- coding: utf-8 -*-
# 载入所需库
import cv2
import numpy as np
import os
import time

def yolo_detect(pathIn='',
                pathOut=None,
                confidence_thre=0.5,
                nms_thre=0.3,
                jpg_quality=80):

    #pathIn:原始图片的路径
    #pathOut:结果图片的路径
    #label_path:类别标签文件的路径
    #config_path:模型配置文件的路径
    #weights_path:模型权重文件的路径
    #confidence_thre:0-1,置信度(概率/打分)阈值,即保留概率大于这个值的边界框,默认为0.5
    #nms_thre:非极大值抑制的阈值,默认为0.3
    #jpg_quality:设定输出图片的质量,范围为0到100,默认为80,越大质量越好

    # 加载类别标签文件
    LABELS = open('cfg/coco.names').read().strip().split("\n")
    nclass = len(LABELS)
    
    # 为每个类别的边界框随机匹配相应颜色
    np.random.seed(42)
    COLORS = np.random.randint(0, 255, size=(nclass, 3), dtype='uint8')
    
    # 载入图片并获取其维度
    base_path = os.path.basename(pathIn)
    img = cv2.imread(pathIn)
    (H, W) = img.shape[:2]
    
    # 加载模型配置和权重文件 readNetFromDarknet使用这个会报错
    #print('从硬盘加载YOLO......')
    net = cv2.dnn.readNet('cfg/yolov3.weights', 'cfg/yolov3.cfg')

    # 获取YOLO输出层的名字 [ln[i[0] - 1] for 网上很多是这样,会报错
    ln = net.getLayerNames()
    ln = [ln[i - 1] for i in net.getUnconnectedOutLayers()]
    
    # 将图片构建成一个blob,设置图片尺寸,然后执行一次
    # YOLO前馈网络计算,最终获取边界框和相应概率
    blob = cv2.dnn.blobFromImage(img, 1 / 255.0, (416, 416), swapRB=True, crop=False)
    net.setInput(blob)
    start = time.time()
    layerOutputs = net.forward(ln)
    end = time.time()
    
    # 显示预测所花费时间
    print('YOLO模型花费 {:.2f} 秒来预测一张图片'.format(end - start))
    
    # 初始化边界框,置信度(概率)以及类别
    boxes = []
    confidences = []
    classIDs = []
    
    # 迭代每个输出层,总共三个
    for output in layerOutputs:
        # 迭代每个检测
        for detection in output:
            # 提取类别ID和置信度
            scores = detection[5:]
            classID = np.argmax(scores)
            confidence = scores[classID]
    
            # 只保留置信度大于某值的边界框
            if confidence > confidence_thre:
                # 将边界框的坐标还原至与原图片相匹配,记住YOLO返回的是
                # 边界框的中心坐标以及边界框的宽度和高度
                box = detection[0:4] * np.array([W, H, W, H])
                (centerX, centerY, width, height) = box.astype("int")
    
                
                # 计算边界框的左上角位置
                x = int(centerX - (width / 2))
                y = int(centerY - (height / 2))
    
                # 更新边界框,置信度(概率)以及类别
                boxes.append([x, y, int(width), int(height)])
                confidences.append(float(confidence))
                classIDs.append(classID)
    
    # 使用非极大值抑制方法抑制弱、重叠边界框
    idxs = cv2.dnn.NMSBoxes(boxes, confidences, confidence_thre, nms_thre)
    
    personCount = 0
    allCount = 0
    # 确保至少一个边界框
    if len(idxs) > 0:
        # 迭代每个边界框
        for i in idxs.flatten():
            # 提取边界框的坐标
            (x, y) = (boxes[i][0], boxes[i][1])
            (w, h) = (boxes[i][2], boxes[i][3])
            
            # 绘制边界框以及在左上角添加类别标签和置信度
            color = [int(c) for c in COLORS[classIDs[i]]]
            cv2.rectangle(img, (x, y), (x + w, y + h), color, 2)
            allCount = allCount + 1
            #如果是人物就单独累计一下
            typeStr = LABELS[classIDs[i]]
            if typeStr == "person":
               personCount = personCount + 1
            text = '{}: {:.3f}'.format(typeStr, confidences[i])
            (text_w, text_h), baseline = cv2.getTextSize(text, cv2.FONT_HERSHEY_SIMPLEX, 0.5, 2)
            cv2.rectangle(img, (x, y - text_h - baseline), (x + text_w, y), color, -1)
            cv2.putText(img, text, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 0), 2)
            
    
    print('共检测到数据:{}项,person:{}个'.format(allCount,personCount))
    # 输出结果图片
    if pathOut is None:
        cv2.imwrite('with_box_' + base_path, img, [int(cv2.IMWRITE_JPEG_QUALITY), jpg_quality])
    else:
        cv2.imwrite(pathOut, img, [int(cv2.IMWRITE_JPEG_QUALITY), jpg_quality])



pathIn = 'img/10.jpg'
pathOut = 'resultimg/10.jpg'
yolo_detect(pathIn,pathOut)

测试结果:

  • 20
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 很高兴为您服务!我可以提供一些参考资料,但是最终的实现还是要靠您自己:YOLO(You Only Look Once)是一种快速目标检测算法,它可以用来识别图像中的物体。它可以使用Python实现,并且在GitHub上有一些可用的代码库。 ### 回答2: 火焰识别是一项基于计算机视觉的技术,Python使用yolo算法进行火焰识别的实现代码如下: 首先,需要安装yolo的相关库和模型文件: ```python !pip install opencv-python !pip install opencv-contrib-python !pip install tensorflow !pip install keras ``` 然后,导入所需的库: ```python import cv2 import numpy as np from keras.models import load_model ``` 加载预训练模型: ```python model = load_model('fire_detection_model.h5') ``` 定义一个函数用于进行火焰识别: ```python def detect_fire(image): # 按照模型输入要求对图像进行预处理 image = cv2.resize(image, (224, 224)) image = np.expand_dims(image, axis=0) image = image / 255.0 # 使用模型进行预测 result = model.predict(image) # 判断模型输出的结果 if result[0][0] > 0.5: return True # 火焰存在 else: return False # 火焰不存在 ``` 读取图像并进行火焰识别: ```python image = cv2.imread('fire_image.jpg') fire_status = detect_fire(image) if fire_status: print("火焰存在") else: print("火焰不存在") ``` 需要注意的是,上述代码中使用的`fire_detection_model.h5`模型文件是预训练好的yolo模型,可以从网络上找到合适的模型文件进行下载。此外,还需要准备一张名为`fire_image.jpg`的待检测图像。 以上就是基于yolo算法的火焰识别的Python代码实现。 ### 回答3: 在基于YOLO的火焰识别代码中,首先需要导入必要的库文件,如OpenCV、NumPy和YOLO模型的配置文件。 接下来,需要加载预训练的YOLO模型和其对应的类别标签文件。YOLO模型的权重文件可以从YOLO的官方网站上下载得到。同时,需要加载模型的配置文件,其中包含了模型的架构和超参数。 然后,我们需要读取待检测的图像或视频文件,并使用OpenCV将其转换为模型所需的输入格式。 接下来,通过调用YOLO模型的前向传播方法,可以得到模型在输入图像上的输出结果。这些输出结果中包含了图像中存在的火焰目标的位置坐标和类别标签。 最后,为了更好地可视化结果,可以使用OpenCV将识别到的火焰目标在输入图像上画框并添加类别标签。这样,我们就可以清晰地看到哪些区域存在火焰。 综上所述,基于YOLO的火焰识别代码主要包含模型和类别标签的加载、输入数据的预处理、模型的前向传播推理以及结果的可视化处理等步骤。 当然,这只是一个简单的框架,实际的代码应根据具体的情况进行细节的调整和完善。具体的代码实现可以参考相关教程或开源项目,并根据需求进行修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值