运动目标检测之背景建模(1):混合高斯建模GMM的理解

参考链接1:GMM

运动物体检测的问题主要分为两类,摄像机固定和摄像机运动。

对于摄像机运动的运动物体检测问题,比较著名的解决方案是光流法 ,通过求解偏微分方程,求的图像序列的光流场 ,从而预测摄像机的运动状态。对于摄像机固定的情形,当然也可以用光流法,但是由于光流法的复杂性,往往难以实时的计算,所以可以采用背景模型法。因为,在摄像机固定的情况下,背景的变化是缓慢的,而且大都是光照,风等等的影响,通过对背景建模,对一幅给定图像分离前景和背景,一般来说,混合高斯建模是最常用。

找到研究方向以后,就是了解对应的算法。

1、单高斯模型和混合高斯模型
参考链接2:高斯模型

高斯模型有单高斯模型(SGM)和高斯混合模型(GMM)两种。

1.1单高斯模型

单高斯模型也就是我们平时说所的高斯分布(正态分布),概率密度函数服从上面的正态分布的模型叫做单高斯模型,具体形式如下:
在这里插入图片描述
1.2 高斯混合模型(GMM)
高斯混合模型(GMM)是单高斯模型(SGM)的延伸,就是用多个高斯概率密度函数(正态分布曲线)精确地量化变量分布,是将变量分布分解为若干基于高斯概率密度函数(正态分布曲线)分布的统计模型。它可以平滑的近似任何形状的分布。反过来解释就是, K 个单高斯模型混合在一起,生成的模型,就是高斯混合模型。

GMM是工业界使用最多的一种聚类算法,每个单高斯模型可以看做是一个类别,通过计算样本属于各单高斯模型的概率来判断其最终的类别。它本身是一种概率式的聚类方法,假定所有的样本数据X由K 个混合多元高斯分布组合成的混合分布生成。

一般来说,一个混合模型可以使用任何概率分布,这里使用高斯混合模型是因为高斯分布具备很好的数学性质以及良好的计算性能。
在这里插入图片描述
2、混合高斯背景建模理论和流程
参考链接:原理
参考链接3:理论

2.1 混合高斯背景建模理论
混合高斯背景建模是基于像素样本统计信息的背景表示方法,利用像素在较长时间内大量样本值的概率密度等统计信息(如模式数量、每个模式的均值和标准差)表示背景,然后使用统计差分(如3σ原则)进行目标像素判断,可以对复杂动态背景进行建模,计算量较大。
在混合高斯背景模型中,认为像素之间的颜色信息互不相关,对各像素点的处理都是相互独立的。对于视频图像中的每一个像素点,其值在序列图像中的变化可看作是不断产生像素值的随机过程,即用高斯分布来描述每个像素点的颜色呈现规律{单模态(单峰),多模态(多峰)}。

对于多峰高斯分布模型,图像的每一个像素点按不同权值的多个高斯分布的叠加来建模,每种高斯分布对应一个可能产生像素点所呈现颜色的状态,各个高斯分布的权值和分布参数随时间更新。当处理彩色图像时,假定图像像素点R、G、B三色通道相互独立并具有相同的方差。对于随机变量X的观测数据集{x1,x2,…,xN},xt=(rt,gt,bt)为t时刻像素的样本,则单个采样点xt其服从的混合高斯分布概率密度函数:
在这里插入图片描述
其中k为分布模式总数,η(xt,μi,t,τi,t)为t时刻第i个高斯分布,μi,t为其均值,τi,t为其协方差矩阵,δi,t为方差,I为三维单位矩阵,ωi,t为t时刻第i个高斯分布的权重。

2.2 混合高斯背景建模流程

1.每个新像素值Xt同当前K个模型按下式进行比较,直接找到匹配新像素值的分布模型,即同该模型的均值偏差在2.5σ内:
在这里插入图片描述
2.如果所匹配的模式符合背景要求,则该像素属于背景,否则属于前景。
3.各个模式权值按如下方式进行更新,其中a是学习速率,对于匹配的模式Mk,t=1,否则Mk,t=0,然后各模式的权重进行归一化:
在这里插入图片描述
4.未匹配模式的均值μ和标准差σ不变,匹配模式的参数按照如下更新:
在这里插入图片描述
5.如果,第一步中没有任何模式匹配,则权重最小的模式被替换,即该模式的均值为当前像素值,标准差为初始较大值,权重为较小值。
6.各模式根据w/a^2按降序排列,权重大、标准差小的模式排列在前。
7.选前B个模式作为背景,B满足下式,参数T表示背景所占的比例:
在这里插入图片描述

3、算法实现
参开链接4:gmm
参考链接5:背景减法

// 功能:代码 9-5 高斯混合背景建模
// 作者:朱伟 zhu1988wei@163.com
// 来源:《OpenCV图像处理编程实例》
// 博客:http://blog.csdn.net/zhuwei1988
// 更新:2016-8-1
// 说明:版权所有,引用或摘录请联系作者,并按照上面格式注明出处,谢谢。// 
#include "opencv2/imgcodecs.hpp"
#include "opencv2/imgproc.hpp"
#include "opencv2/videoio.hpp"
#include <opencv2/highgui.hpp>
#include <opencv2/video.hpp>
#include <iostream>
#include <sstream>
using namespace cv;
using namespace std;
Mat frame; 
Mat fgMaskMOG2; 
Ptr<BackgroundSubtractor> pMOG2;
int keyboard; 
void processVideo(string videoFilename) 
{
    // 视频获取
    VideoCapture capture(videoFilename);
    if(!capture.isOpened())
    {
        // 输出视频文件打开错误信息
        cerr << "Unable to open video file: " << videoFilename << endl;
        exit(EXIT_FAILURE);
    }
    // 按下q键和esc退出
    while( (char)keyboard != 'q' && (char)keyboard != 27 )
    {
        // 读取当前帧
        if(!capture.read(frame)) 
        {
            cerr << "Unable to read next frame." << endl;
            cerr << "Exiting..." << endl;
            exit(EXIT_FAILURE);
        }
        // 图像尺寸缩小
        cv::resize(frame, frame,cv::Size(), 0.25,0.25);
        //  背景模型生成
        pMOG2->apply(frame, fgMaskMOG2);
        // 输出当前帧号
        stringstream ss;
        rectangle(frame, cv::Point(10, 2), cv::Point(100,20),
            cv::Scalar(255,255,255), -1);
        ss << capture.get(CAP_PROP_POS_FRAMES);
        string frameNumberString = ss.str();
        // 左上角显示帧号
        putText(frame, frameNumberString.c_str(), cv::Point(15, 15),
            FONT_HERSHEY_SIMPLEX, 0.5 , cv::Scalar(0,0,0));
        // 输出结果
        imshow("Frame", frame);
        imshow("FG Mask MOG 2", fgMaskMOG2);
        keyboard = waitKey(30);
    }
    capture.release();
}
int main(int argc, char* argv[])
{
    // 创建背景建模类
    pMOG2 = createBackgroundSubtractorMOG2(); 
    string inputPath = "F:\\毕业论文相关\\机场视频\\机场.avi";
    processVideo(inputPath);
    return 0;
}

4、代码中GMM算法实现的解释
参考链接6:opencv源码讲解

混合高斯分布(GMM)是背景建模中的经典算法,自提出至今已经有了很多围绕它改进和应用的论文。opencv中(2.4.13版本)也引入了该算法及其改进版本。

首先是基本版本的GMM,opencv将其封装为BackgroundSubtractorMOG。
之后是改进版GMM,opencv把它封装为BackgroundSubtractorMOG2算法类,源代码位于opencv\sources\modules\video\src\bgfg_gaussmix2.cpp中。

背景提取效果如下图所示,左左边为BackgroundSubtractorMOG2算法效果,右边为BackgroundSubtractorMOG效果。先忽略左边图像中的一些噪点,我们可以看到两者的最大不同在于左边图像中存在灰色填充的一些区域,这些正是BackgroundSubtractorMOG2算法的一个改进点-阴影检测,那些灰色区域就是算法计算得到的“阴影”区域。另外一处不同在于算法的运行时间,根据控制台输出结果,BackgroundSubtractorMOG2每帧检测大概0.03s,BackgroundSubtractorMOG每帧检测大概0.06s,BackgroundSubtractorMOG2算法在运行时间上有较大提升(不全是算法本身原因,实际上BackgroundSubtractorMOG2在执行时通过多线程并行执行)。
在这里插入图片描述
所以目前看来改进后的GMM算法,即BackgroundSubtractorMOG2算法主要有两点改进点:(1)增加阴影检测功能(2)算法效率有较大提升。后者意义不言而喻,前者的意义在于如果不使用一些方法检测得到阴影,那么它有可能被识别为前景物体,导致前景物体得到了错误的形状,从而对后续处理(譬如跟踪)产生不好的影响。

支撑论文只需要看《Improved adaptive Gausian mixture model for background subtraction》,翻译好的链接是《Improved adaptive Gausian mixture model for background subtraction》

  • 1
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 基于混合高斯运动目标检测是一种常用的目标检测方法,它可以通过对视频序列进行高斯模型建模来提取出目标运动信息。下面是一个使用Matlab实现基于混合高斯运动目标检测的代码示例: ```matlab % 加载视频序列 video = VideoReader('video.mp4'); % 设置混合高斯模型参数 numGaussians = 3; % 混合高斯分量个数 learningRate = 0.001; % 学习速率 backgroundRatio = 0.7; % 背景比例因子 % 初始化背景模型 background = []; frame = readFrame(video); background(:,:,:,1) = double(frame); % 处理每帧图像 while hasFrame(video) frame = readFrame(video); frame = double(frame); % 更新背景模型 background = (1 - learningRate) * background + learningRate * frame; % 计算目标区域 diff = abs(frame - background); diff = sum(diff, 3) / 3; % 取RGB通道平均值 fgMask = diff > 2.5 * std(diff(:)); % 阈值化生成前景掩码 % 进行形态学操作 fgMask = bwareaopen(fgMask, 100); % 去除小的前景区域 se = strel('square', 3); fgMask = imclose(fgMask, se); % 闭操作填充前景区域的空洞 % 显示结果 imshow(frame); hold on; visboundaries(fgMask, 'Color', 'r', 'LineWidth', 2); hold off; pause(0.01); end ``` 以上代码演示了一个基于混合高斯运动目标检测方法。代码首先加载视频序列,然后设置混合高斯模型的参数。接着,利用第一帧图像初始化背景模型。之后,对每一帧进行处理,通过更新背景模型和计算前景掩码得到目标区域。最后,通过形态学操作对前景掩码进行处理,并可视化结果。 需要注意的是,以上代码仅为示例,实际应用中可能需要进一步优化参数和处理步骤来适应具体的场景和需求。 ### 回答2: 基于混合高斯运动目标检测是一种常用的图像处理算法,可以通过分析图像序列中的像素变化来检测运动目标。下面是一个简单的基于混合高斯运动目标检测的Matlab代码示例: ```matlab % 读取图像序列 imageSequence = VideoReader('imageSequence.avi'); % 提取第一帧图像 frame1 = readFrame(imageSequence); frame1 = im2double(rgb2gray(frame1)); % 高斯混合模型参数设置 numGaussians = 3; % 高斯分布数量 minEigenValue = 0.1; % 最小特征值 varThreshold = 64; % 方差阈值 % 创建高斯混合模型 gmm = vision.ForegroundDetector('NumGaussians', numGaussians, 'MinimumEigenvalue', minEigenValue, 'VarianceSignalThreshold', varThreshold); % 初始化结果图像 mask = zeros([size(frame1), 'like', frame1]); % 处理图像序列 while hasFrame(imageSequence) % 提取当前帧 frame = readFrame(imageSequence); frame = im2double(rgb2gray(frame)); % 检测前景目标 foreground = step(gmm, frame); % 更新结果图像 mask = mask + foreground; end % 显示结果 imshow(mask); ``` 上述代码首先读取图像序列,并提取第一帧作为初始参考帧。然后设置高斯混合模型的参数,包括高斯分布数量、最小特征值和方差阈值。接下来,根据这些参数创建一个高斯混合模型。然后,通过循环处理图像序列的每一帧,提取当前帧并使用高斯混合模型进行前景目标检测。最后,将每一帧的检测结果叠加到结果图像中,并显示最终结果。 需要注意的是,代码中的图像序列使用了一个称为`'imageSequence.avi'`的视频文件,你需要将其替换为你自己的图像序列文件名。此外,代码还使用了Computer Vision Toolbox中的`vision.ForegroundDetector`函数,因此需要事先安装并加载该工具箱。 希望以上代码能对你理解基于混合高斯运动目标检测过程有所帮助。 ### 回答3: 基于混合高斯运动目标检测是一种在视频中检测和跟踪运动目标的方法。下面是一个使用Matlab实现的基于混合高斯运动目标检测的代码示例: 首先,引入图像和视频处理工具包,并加载视频文件: ```matlab videoReader = vision.VideoFileReader('input_video.mp4'); videoPlayer = vision.VideoPlayer(); % 设置混合高斯背景建模参数 foregroundDetector = vision.ForegroundDetector('NumGaussians', 5, 'NumTrainingFrames', 100); while ~isDone(videoReader) % 读取当前帧 frame = step(videoReader); % 检测前景 foregroundMask = step(foregroundDetector, frame); % 对前景进行形态学操作,去除噪声 se = strel('square', 3); filteredForegroundMask = imopen(foregroundMask, se); % 使用连通区域标记检测运动目标 blobAnalysis = vision.BlobAnalysis('BoundingBoxOutputPort', true, 'AreaOutputPort', true); [areas, boxes] = step(blobAnalysis, filteredForegroundMask); % 绘制边界框 frameWithBoxes = insertShape(frame, 'Rectangle', boxes, 'Color', 'cyan'); % 显示结果 step(videoPlayer, frameWithBoxes); end % 释放资源 release(videoReader); release(videoPlayer); ``` 上述代码中,我们首先使用`vision.ForegroundDetector`对象创建一个混合高斯背景建模器。然后,我们对视频帧进行前景检测,并使用形态学操作去除噪声。接下来,我们使用`vision.BlobAnalysis`对象对前景进行连通区域标记,并检测出其中的运动物体。最后,我们在原始帧上绘制边界框来标记检测到的运动目标,并使用`vision.VideoPlayer`播放结果。 当然,这只是一个简单的示例代码,实际的运动目标检测问题可能还需要考虑更多的细节,比如背景建模参数的调整、运动目标跟踪等。但是,上述代码足以让我们理解混合高斯背景建模运动目标检测中的应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值