基于颜色特征和质心位移的火灾检测算法

首先基于RGB颜色空间对火灾进行检测,对于出现的误检情况,使用检测到火灾的质心的变化给予排除
通过研究火灾和误检项质心的变化特点
1.基于火灾颜色特征完成对火灾的检测
2.对检测到的火灾区域,计算该区域的质心坐标
3.每间隔50帧,绘制当前帧的形心坐标,并输出散点图
4.这里绘制形心的方法是根据轮廓,所以一帧可能绘制多个形心(多火灾区域)

#间隔50帧,绘制当前帧的形心坐标,并输出散点图

import cv2
import numpy as np
import matplotlib.pyplot as plt

# 打开视频文件
cap = cv2.VideoCapture('1-远距离森林火灾5.avi')  # 将'your_video.mp4'替换为你的视频文件路径

# 获取视频帧的宽度和高度
width = int(cap.get(3))
height = int(cap.get(4))

# 创建 VideoWriter 对象,输出视频的名称为 'output_video.avi',编解码器为 XVID,帧率为 25
fourcc = cv2.VideoWriter_fourcc(*'XVID')
out = cv2.VideoWriter('output_video.avi', fourcc, 25, (width * 2, height))

# 创建用于显示散点图的窗口,设置窗口大小和坐标范围
plt.figure("Fire Centroids", figsize=(width/50, height/50))
plt.xlim(0, width)
plt.ylim(height, 0)  # 注意这里是从 height 到 0,以符合图像坐标系

# 用于存储形心坐标的列表
centroids = []

# 计数器,每间隔20帧计算一次形心
counter = 1  # 初始化计数器

# 创建一个窗口
cv2.namedWindow('Fire Detection', cv2.WINDOW_NORMAL)

while cap.isOpened():
    ret, frame = cap.read()

    if not ret:
        break

    # 转换为灰度图像
    gray_frame = 1.6 * frame[:, :, 2] - frame[:, :, 1] - 0.8 * frame[:, :, 0]
    gray_frame = np.clip(gray_frame, 0, 255).astype(np.uint8)

    # 使用Otsu算法进行二值化
    _, binary_frame = cv2.threshold(gray_frame, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)

    # 对二值化图像进行腐蚀和膨胀操作去除噪声
    kernel = np.ones((5, 5), np.uint8)
    binary_frame = cv2.erode(binary_frame, kernel, iterations=1)
    binary_frame = cv2.dilate(binary_frame, kernel, iterations=1)

    # 在同一个窗口中展示原视频和二值化后的视频
    side_by_side = np.hstack((frame, cv2.cvtColor(binary_frame, cv2.COLOR_GRAY2BGR)))
    cv2.imshow('Fire Detection', side_by_side)

    # 将二值化后的帧写入输出视频
    out.write(side_by_side)

    # 每间隔20帧计算一次形心
    if counter % 50 == 0:
        # 查找二值化图像中的轮廓
        contours, _ = cv2.findContours(binary_frame, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

        # 遍历轮廓并计算形心坐标
        for contour in contours:
            M = cv2.moments(contour)
            if M["m00"] != 0:
                cx = int(M["m10"] / M["m00"])
                cy = int(M["m01"] / M["m00"])
                centroids.append((cx, cy))

                # 在散点图中显示形心坐标和名称
                plt.scatter(cx, cy, label=f"Fire {counter} ({cx},{cy})")
                counter += 1

        # 更新散点图
        plt.legend()
        plt.draw()
        plt.pause(0.01)

    counter += 1

    if cv2.waitKey(25) & 0xFF == 27:
        break

# 释放资源
cap.release()
out.release()
cv2.destroyAllWindows()

# 显示散点图
plt.show()

在绘制火灾形心部分进行修改,上述代码中是绘制每个火灾区域的形心,我的要求是每帧仅仅保留一个形心位置,下述的代码是先计算每个轮廓的形心,然后进行形心坐标平均,每一帧仅仅保留一个形心坐标

import cv2
import numpy as np
import matplotlib.pyplot as plt

# 打开视频文件
cap = cv2.VideoCapture('误检项-移动的红色汽车.avi')

# 获取视频帧的宽度和高度
width = int(cap.get(3))
height = int(cap.get(4))

# 创建 VideoWriter 对象,输出视频的名称为 'output_video.avi',编解码器为 XVID,帧率为 25
fourcc = cv2.VideoWriter_fourcc(*'XVID')
out = cv2.VideoWriter('output_video.avi', fourcc, 25, (width * 2, height))

# 创建用于显示散点图的窗口,设置窗口大小和坐标范围
plt.figure("Fire Centroids", figsize=(width/50, height/50))
plt.xlim(0, width)
plt.ylim(height, 0)  # 注意这里是从 height 到 0,以符合图像坐标系

# 用于存储形心坐标的列表
centroids = []

# 计数器,每间隔20帧计算一次形心
counter = 1  # 初始化计数器

# 创建一个窗口
cv2.namedWindow('Fire Detection', cv2.WINDOW_NORMAL)

while cap.isOpened():
    ret, frame = cap.read()

    if not ret:
        break

    # 转换为灰度图像
    gray_frame = 1.6 * frame[:, :, 2] - frame[:, :, 1] - 0.8 * frame[:, :, 0]
    gray_frame = np.clip(gray_frame, 0, 255).astype(np.uint8)

    # 使用Otsu算法进行二值化
    _, binary_frame = cv2.threshold(gray_frame, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)

    # 对二值化图像进行腐蚀和膨胀操作去除噪声
    kernel = np.ones((5, 5), np.uint8)
    binary_frame = cv2.erode(binary_frame, kernel, iterations=1)
    binary_frame = cv2.dilate(binary_frame, kernel, iterations=1)

    # 在同一个窗口中展示原视频和二值化后的视频
    side_by_side = np.hstack((frame, cv2.cvtColor(binary_frame, cv2.COLOR_GRAY2BGR)))
    cv2.imshow('Fire Detection', side_by_side)

    # 将二值化后的帧写入输出视频
    out.write(side_by_side)

    # 每间隔20帧计算一次形心
    if counter % 50 == 0:
        # 查找二值化图像中的轮廓
        contours, _ = cv2.findContours(binary_frame, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

        # 遍历轮廓并计算形心坐标
        for contour in contours:
            M = cv2.moments(contour)
            if M["m00"] != 0:
                cx = int(M["m10"] / M["m00"])
                cy = int(M["m01"] / M["m00"])
                centroids.append((cx, cy))

        # 计算所有形心的平均值
        if len(centroids) > 0:
            avg_cx = int(np.mean([c[0] for c in centroids]))
            avg_cy = int(np.mean([c[1] for c in centroids]))

            # 在散点图中显示整体形心坐标
            plt.scatter(avg_cx, avg_cy, label=f"Fire {counter} (Avg: {avg_cx},{avg_cy})")
            counter += 1

        # 清空形心列表,以便下一次计算
        centroids = []

        # 更新散点图
        plt.legend()
        plt.draw()
        plt.pause(0.01)

    counter += 1

    if cv2.waitKey(25) & 0xFF == 27:
        break

# 释放资源
cap.release()
out.release()
cv2.destroyAllWindows()

# 显示散点图
plt.show()

在绘制火灾形心部分再次进行修改,上述代码中是先计算每个轮廓的形心,然后进行形心坐标平均,每一帧仅仅保留一个形心坐标,这种每帧火灾形心的计算还是有很大的问题,即如果出现非常小的火灾区域或者小区域的误检,形心坐标会有很大的变动,为了解决这个问题,提出根据火灾区域对形心坐标进行加权,如果火灾区域较大,形心占有较大的权重,根据火灾轮廓面积占所有火灾区域面积的比例确定形心位置

import cv2
import numpy as np
import matplotlib.pyplot as plt

# 打开视频文件
cap = cv2.VideoCapture('误检项-夜晚的路灯2.mp4')

# 获取视频帧的宽度和高度
width = int(cap.get(3))
height = int(cap.get(4))

# 创建 VideoWriter 对象,输出视频的名称为 'output_video.avi',编解码器为 XVID,帧率为 25
fourcc = cv2.VideoWriter_fourcc(*'XVID')
out = cv2.VideoWriter('output_video.avi', fourcc, 25, (width * 2, height))

# 创建用于显示散点图的窗口,设置窗口大小和坐标范围
plt.figure("Fire Centroids", figsize=(width/50, height/50))
plt.xlim(0, width)
plt.ylim(height, 0)  # 注意这里是从 height 到 0,以符合图像坐标系

# 用于存储形心坐标和轮廓面积的列表
weighted_centroids = []
total_area = 0  # 总面积

# 计数器,每间隔20帧计算一次形心
counter = 1  # 初始化计数器

# 创建一个窗口
cv2.namedWindow('Fire Detection', cv2.WINDOW_NORMAL)

while cap.isOpened():
    ret, frame = cap.read()

    if not ret:
        break

    # 转换为灰度图像
    gray_frame = 1.6 * frame[:, :, 2] - frame[:, :, 1] - 0.8 * frame[:, :, 0]
    gray_frame = np.clip(gray_frame, 0, 255).astype(np.uint8)

    # 使用Otsu算法进行二值化
    _, binary_frame = cv2.threshold(gray_frame, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)

    # 对二值化图像进行腐蚀和膨胀操作去除噪声
    kernel = np.ones((5, 5), np.uint8)
    binary_frame = cv2.erode(binary_frame, kernel, iterations=1)
    binary_frame = cv2.dilate(binary_frame, kernel, iterations=1)

    # 在同一个窗口中展示原视频和二值化后的视频
    side_by_side = np.hstack((frame, cv2.cvtColor(binary_frame, cv2.COLOR_GRAY2BGR)))
    cv2.imshow('Fire Detection', side_by_side)

    # 将二值化后的帧写入输出视频
    out.write(side_by_side)

    # 每间隔20帧计算一次形心
    if counter % 50 == 0:
        # 查找二值化图像中的轮廓
        contours, _ = cv2.findContours(binary_frame, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

        # 遍历轮廓并计算形心坐标以及轮廓的面积
        for contour in contours:
            M = cv2.moments(contour)
            if M["m00"] != 0:
                cx = int(M["m10"] / M["m00"])
                cy = int(M["m01"] / M["m00"])
                area = cv2.contourArea(contour)  # 获取轮廓的面积
                total_area += area
                weighted_centroids.append((cx, cy, area))

        # 计算加权平均形心
        if total_area > 0:
            weighted_avg_cx = int(np.sum([c[0] * c[2] for c in weighted_centroids]) / total_area)
            weighted_avg_cy = int(np.sum([c[1] * c[2] for c in weighted_centroids]) / total_area)

            # 在散点图中显示加权平均形心坐标
            plt.scatter(weighted_avg_cx, weighted_avg_cy, label=f"Weighted Avg: ({weighted_avg_cx},{weighted_avg_cy})")
            counter += 1

        # 清空形心列表和总面积,以便下一次计算
        weighted_centroids = []
        total_area = 0

        # 更新散点图
        plt.legend()
        plt.draw()
        plt.pause(0.01)

    counter += 1

    if cv2.waitKey(25) & 0xFF == 27:
        break

# 释放资源
cap.release()
out.release()
cv2.destroyAllWindows()

# 显示散点图
plt.show()
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值