opencv进阶-背景建模-(帧差法与混合高斯模型)

背景减除(Background Subtraction)是许多基于计算机视觉的任务中的主要预处理步骤。如果我们有完整的静止的背景帧,那么我们可以通过帧差法来计算像素差从而获取到前景对象。但是在大多数情况下,我们可能没有这样的图像,所以我们需要从我们拥有的任何图像中提取背景。当运动物体有阴影时,由于阴影也在移动,情况会变的变得更加复杂。为此引入了背景减除算法,通过这一方法我们能够从视频中分离出运动的物体前景,从而达到目标检测的目的。 OpenCV已经实现了几种非常容易使用的算法

KNN

KNN算法,即K-nearest neigbours - based Background/Foreground Segmentation Algorithm。2006年,由Zoran Zivkovic 和Ferdinand van der Heijden在论文"Efficient adaptive density estimation per image pixel for the task of background subtraction."中提出。

bs = cv2.createBackgroundSubtractorKNN(detectShadows=True)

fg_mask = bs.apply(frame)  

 

MOG

MOG算法,即高斯混合模型分离算法,全称Gaussian Mixture-based Background/Foreground Segmentation Algorithm。2001年,由P.KadewTraKuPong和R.Bowden在论文“An improved adaptive background mixture model for real-time tracking with shadow detection”中提出。它使用一种通过K高斯分布的混合来对每个背景像素进行建模的方法(K = 3〜5)。

bs = cv2.bgsegm.createBackgroundSubtractorMOG(history=history)
bs.setHistory(history)

fg_mask = bs.apply(frame)  

MOG2

MOG2算法,也是高斯混合模型分离算法,是MOG的改进算法。它基于Z.Zivkovic发布的两篇论文,即2004年发布的“Improved adaptive Gausian mixture model for background subtraction”和2006年发布的“Efficient Adaptive Density Estimation per Image Pixel for the Task of Background Subtraction”中提出。该算法的一个重要特征是 它为每个像素选择适当数量的高斯分布,它可以更好地适应不同场景的照明变化等。

bs = cv2.createBackgroundSubtractorMOG2(history=history, detectShadows=True)
bs.setHistory(history)

fg_mask = bs.apply(frame) 

GMG

该算法结合统计背景图像估计和每像素贝叶斯分割。由 Andrew B. Godbehere, Akihiro Matsukawa, Ken Goldberg在2012年的文章“Visual Tracking of Human Visitors under Variable-Lighting Conditions for a Responsive Audio Art Installation”中提出。该算法使用前几个(默认为120)帧进行后台建模。它采用概率前景分割算法,使用贝叶斯推理识别可能的前景对象。

bs = cv2.bgsegm.createBackgroundSubtractorGMG(initializationFrames=history)

fg_mask = bs.apply(frame) 


 

 

 

 

常用函数

#背景建模-(帧差法与混合高斯模型)
# 1.cv2.VideoCapture(进行视频读取) 
# 2.cv2.getStructureElement(构造形态学的卷积)
# 3.cv2.createBackgroundSubtractorMOG2(构造高斯混合模型) 
# 4.cv2.morpholyEx(对图像进行形态学的变化)

1. cv2.VideoCapture('test.avi') 进行视频读取

参数说明:‘test.avi’ 输入视频的地址
2. cv2.getStructureElement(cv2.MORPH_ELLIPSE, (3, 3))  # 构造一个全是1的kernel用于形态学的操作

参数说明:cv2.MORPH_ELLIPSE 生成全是1的kernel,(3, 3)表示size

3.cv2.createBackgroundSubtractorMOG2().apply(image) 对图像进行混合高斯模型

参数说明:image表示输入图片

4.cv2.morpholyEx(image, cv2.MORPH_OPEN, kernel)  # 对图像进行开运算
参数说明:image表示输入图片, cv2.MORPH_OPEN 进行开运算,kernel表示卷积核

对于视频数据,将前景与物体背景进行分开

 

 

帧差法:

将连续两帧的图像数据进行差分法,即进行相减操作, 如果其相减后的绝对值大于阈值,则像素点变为255, 否则变为0,通过这种方法来找出视频中运动的物体

混合高斯模型:

将图像分为3-5个高斯模型,一个像素点来了,如果该像素点离任何一个高斯模型的距离大于其2倍的标准差,则为前景即运动物体,否则则是背景

步骤:第一步:初始各种参数

           第二步:使用T帧图像构造模型,对于第一个帧图像的第一个像素点,使用u1,σ1构造高斯模型

           第三步:对于一个新来的模型,如果该像素在高斯模型3*σ1内,则属于该高斯模型,对参数进行更新

           第四步:如果不满足该高斯模型,重新建立一个新的高斯模型

代码:

第一步:使用cv2.VideoCapture() 构造读取模型

第二步:使用cv2.getStructureElement(cv2.MORPH_ELLIPSE, (3, 3)) # 构造形态学使用的kernel,即np.ones((3, 3), np.uint8)

第三步:构造cv2.createBackgroundSubtractorMOG2() 实例化混合高斯模型

第四步:cap.read()从视频中读取文件,并使用model.apply(frame) 使用上混合高斯模型

第五步:使用cv2.morpholyEx(image, cv2.MORPH_OPEN, kernel) 使用开运算进行噪音的去除

第六步:cv2.findCountours找出图片中的轮廓,对其进行循环

第七步:对于周长大于188的轮廓,使用cv2.boundingRect计算外接矩阵,使用cv2.rectangle画出外接矩阵,作为人

第八步:使用cv2.imshow()展示图片,使用cv2.waitkey(150) & 0xff == 27来延长放映的时间

 

import cv2
import numpy as np

# 第一步:使用cv2.VideoCapture读取视频
cap = cv2.VideoCapture('test.avi')
# 第二步:cv2.getStructuringElement构造形态学使用的kernel
kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3))
# 第三步:构造高斯混合模型
model = cv2.createBackgroundSubtractorMOG2()

while(True):
    # 第四步:读取视频中的图片,并使用高斯模型进行拟合
    ret, frame = cap.read()
    # 运用高斯模型进行拟合,在两个标准差内设置为0,在两个标准差外设置为255
    fgmk = model.apply(frame)
    # 第五步:使用形态学的开运算做背景的去除
    fgmk = cv2.morphologyEx(fgmk, cv2.MORPH_OPEN, kernel)
    # 第六步:cv2.findContours计算fgmk的轮廓
    contours = cv2.findContours(fgmk, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[1]
    for c in contours:
        # 第七步:进行人的轮廓判断,使用周长,符合条件的画出外接矩阵的方格
        length = cv2.arcLength(c, True)

        if length > 188:
            (x, y, w, h) = cv2.boundingRect(c)
            cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 255, 0), 2)
    # 第八步:进行图片的展示
    cv2.imshow('fgmk', fgmk)
    cv2.imshow('frame', frame)

    if cv2.waitKey(150) & 0xff == 27:
        break

cap.release()
cv2.destroyAllWindows()

 

 

   

                            带方框的原始图片                                                       进行高斯混合模型的图片

 

 

 

 

使用KNN根据前景面积检测运动物体

代码:

# coding:utf8
import cv2


def detect_video(video):
    camera = cv2.VideoCapture(video)
    history = 20    # 训练帧数

    bs = cv2.createBackgroundSubtractorKNN(detectShadows=True)  # 背景减除器,设置阴影检测
    bs.setHistory(history)

    frames = 0

    while True:
        res, frame = camera.read()

        if not res:
            break

        fg_mask = bs.apply(frame)   # 获取 foreground mask

        if frames < history:
            frames += 1
            continue

        # 对原始帧进行膨胀去噪
        th = cv2.threshold(fg_mask.copy(), 244, 255, cv2.THRESH_BINARY)[1]
        th = cv2.erode(th, cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3)), iterations=2)
        dilated = cv2.dilate(th, cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (8, 3)), iterations=2)
        # 获取所有检测框
        image, contours, hier = cv2.findContours(dilated, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

        for c in contours:
            # 获取矩形框边界坐标
            x, y, w, h = cv2.boundingRect(c)
            # 计算矩形框的面积
            area = cv2.contourArea(c)
            if 500 < area < 3000:
                cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2)

        cv2.imshow("detection", frame)
        cv2.imshow("back", dilated)
        if cv2.waitKey(110) & 0xff == 27:
            break
    camera.release()


if __name__ == '__main__':
    video = 'person.avi'
    detect_video(video)

效果:



 

 

参考文献:

1.https://www.cnblogs.com/my-love-is-python/p/10440827.html

2.https://www.cnblogs.com/my-love-is-python/category/1308248.html

3.https://www.jianshu.com/p/12533816eddf

 

 

  • 4
    点赞
  • 91
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值