高斯分布 笔记

从高斯分布、机器人误差、EM算法到小球检测

从高斯分布、机器人误差、EM算法到小球检测

Coursera上的课程(Robotics: Estimation and Learning),感觉讲得特别棒,写下自己的理解。

高斯分布被广泛应用于对机器人误差的建模。在这篇笔记中,我们将会:

  • 介绍如何使用一元高斯分布、多元高斯分布和高斯混合模型对机器人误差进行建模。
  • 介绍求解这些高斯分布的算法。
  • 以小球检测这一实际应用来实践我们的模型和算法。

1. 一元高斯分布

在这一节我们将介绍如何使用一元高斯分布对机器人误差进行建模。

在进入正题之前,我们需要首先了解为什么学习高斯分布?什么使得高斯分布有效并且重要?为什么使用高斯分布对噪声和不确定性进行建模(而不是其他概率分布模型,比如均匀分布)?

  • 高斯分布使得只需要两个参数就能确定一个连续的概率分布。这两个参数分别是均值和方差,这很简洁。这也使得高斯分布易于计算和推断。
  • 高斯分布有一些较好的数学性质。例如,两个高斯分布的积还是高斯分布。这使得你在对高斯分布做运算的时候不需要考虑其他的概率分布。
  • 理论上来说,根据中心极限定理,大量相互独立的随机变量,其均值的分布以高斯分布为极限。而噪声和不确定性就是包含大量相互独立的随机变量的数据,用高斯分布对它们进行建模是不二选择。

说了这么多,我们来举个栗子吧,怎样使用高斯分布来对一个目标颜色进行建模?

下图是足球机器人通过头顶摄像机拍摄到的照片。

显然,图片中有两种颜色的球,黄球和红球。我们设想这个足球机器人想检测图片中的黄球。对于人类来说,一眼就能分辨出黄球在哪,

但对一个机器人来说这并不简单。机器人读入的图片是一个一个像素的数值,它需要建立从像素的数值到“黄色”或者“红色”的映射。

不妨让我们来看看“黄球”里面的像素数值是怎样的。我们记录黄球的每个像素的色相值(Hue,HSV模型中表示色彩的基本属性,就是平常所说的颜色名称,如红色、黄色等),

然后画出每一个色相值出现次数的柱状图如右下。

我们可以看到,”黄色“这一种颜色可以有很多个色相值(换成RGB模型也是一样的),这就是我们所说的噪声或者不确定性。

从分布上来看,”黄色“的色相值以大约53为中心然后向两边扩散。为了记录“黄色”,一种方法是记录每一个“黄色”像素的色相值,然而这将十分消耗存储空间,确切来说,有多少像素就消耗多大的空间。

另一种简洁有效的方法是使用高斯分布。

让我们先来温故一下高斯分布的数学表达形式再返回来解释这个例子吧。

高斯分布的数学形式如下:

p(x) = \frac{1}{\sqrt{2\pi} \sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}

其中,x是变量,p(x)表示x的出现的概率,\mu是均值,\sigma是标准差(\sigma^2是方差)。\mu\sigma是之前我们提到的表示一个高斯分布的两个参数。

在我们上面的栗子中,假设我们已经完成了对黄色的高斯分布建模,x是一个采样像素的色相值,那么p(x)就表示该像素属于“黄色”的概率。

我们继续介绍高斯分布,为了更加直观地了解高斯分布长什么样子,我们把高斯分布画出来。下图是\mu=0,\sigma=1的情况下的高斯分布图(标准高斯分布)。

当均值变化而方差不变的时候,可以看作将图像进行了平移。

当均值不变,而标准差变化的时候,可以看作将图像进行了“挤”或“压”(方差越大越扁)。

总结来说,\mu决定了高斯分布的对称轴,\sigma决定了高斯分布的扩散程度。

让我们返回到小球检测的栗子。我们只使用一个高斯分布(即两个值)就可以近似地存储所有的“黄色”像素,如下图。

那么如何通过数据来求\mu\sigma这两个参数呢?我们将在下一节中介绍最大似然估计方法求解一元高斯分布。

2. 求解一元高斯分布:最大似然估计

在这一节,我们将介绍使用最大似然估计(Maximum Likelihood Estimation,MLE)的方法来求解观测数据的一元高斯分布。

首先,我们引入似然函数(或者说似然,Likelihood)的概念。

似然指的是在给定模型参数的情况下观测值出现的概率。它被定义成了一个条件概率p(\{x_i\}|\mu,\sigma)。比如,在上一节的小球例子中,\{x_i\}表示所有“黄色”像素点的色相值,如果给定了高斯分布的\mu\sigma,我们就能算出\{x_i\}出现的概率。

那么我们的问题就可以表述为,给定观测值\{x_i\},求\mu\sigma,使得似然函数最大:

\hat{\mu}, \hat{\sigma}=\text{arg}\ \underset{\mu,\sigma}{\max}\ {p(\{x_i\}|\mu,\sigma)}

其中,\hat{\mu}\hat{\sigma}表示估计值。

这里,观测值\{x_i\}是所有的观测值的集合,我们假设这些观测值两两相互独立(在我们的小球检测栗子中也确实是这样的)。那么:

p(\{x_i\}|\mu,\sigma) = \prod_{i=1}^{N}p(x_i|\mu,\sigma)

这里,N表示观测值集合的大小为N。那么我们的目标就变成了:

\hat{\mu}, \hat{\sigma}=\text{arg}\ \underset{\mu,\sigma}{\max}\ {\prod_{i=1}^Np(x_i|\mu,\sigma)}

根据对数函数的单调性(x_1<x_2\equiv \ln x_1<\ln x_2),取对数再求最大值等价于直接求最大值,即:

\text{arg}\ \underset{\mu,\sigma}{\max}\ {\prod_{i=1}^Np(x_i|\mu,\sigma)} = \text{arg}\ \underset{\mu,\sigma}{\max}\ln{ \{\prod_{i=1}^Np(x_i|\mu,\sigma)} \}

那么我们的目标就变成了:

\begin{align} \hat{\mu},\hat{\sigma} &=\text{arg}\ \underset{\mu,\sigma}{\max}\ln{ \{\prod_{i=1}^Np(x_i|\mu,\sigma)} \}\\  &=\text{arg}\ \underset{\mu,\sigma}{\max}\sum_{i=1}^{N}\ln p(x_i|\mu,\sigma) \end{align}

而将\ln p(x_i | \mu,\sigma)带入高斯分布我们有:

\begin{align} \ln p(x_i|\mu,\sigma) &= \ln ( \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}  ) \\ &= -\frac{(x_i-\mu)^2}{2\sigma^2}-\ln\sigma-\ln\sqrt{2\pi} \end{align}

那么我们的目标就变成了:

\begin{align} \hat{\mu},\hat{\sigma} &= \text{arg}\ \underset{\mu,\sigma}{\max}\sum_{i=1}^{N} (-\frac{(x_i-\mu)^2}{2\sigma^2}-\ln\sigma-\ln\sqrt{2\pi}) \\ &= \text{arg}\ \underset{\mu,\sigma}{\max}\sum_{i=1}^{N} (-\frac{(x_i-\mu)^2}{2\sigma^2}-\ln\sigma) \\ &= \text{arg}\ \underset{\mu,\sigma}{\min}\sum_{i=1}^{N} (\frac{(x_i-\mu)^2}{2\sigma^2}+\ln\sigma) \end{align}

让我们给后面的目标函数做个记号,令

J(\mu,\sigma) = \sum_{i=1}^{N} (\frac{(x_i-\mu)^2}{2\sigma^2}+\ln\sigma)

我们的目标就是使得J(\mu,\sigma)最小,而函数J(\mu,\sigma)取最小值时其关于\mu的偏导数等于0:

\begin{align} \frac{\partial J}{\partial \mu} &= \sum_{i=1}^N\frac{-2(x_i-\mu)}{2\sigma^2}\\ &=\frac{1}{\sigma^2}(N\mu-\sum_{i=1}^Nx_i)\\ &=0 \end{align}

求得:

\hat\mu = \frac{1}{N}\sum_{i=1}^{N}x_i
\mu=\hat\mu带入函数J(\mu,\sigma)得到函数J'(\sigma),其取最小值时关于\sigma的导数等于0:

\begin{align} \frac{d J'(\sigma)}{d \sigma} &=\frac{N}{\sigma} - \sum_{i=1}^N\frac{(x_i-\mu)^2}{\sigma^3} \\ &= \frac{1}{\sigma}(N-\frac{1}{\sigma^2}\sum_{i=1}^N(x_i-\hat\mu)^2)\\ &=0 \end{align}

求得:

\hat\sigma^2 = \frac{1}{N}\sum_{i=1}^N (x_i-\hat\mu)^2

总结来说,最后的答案为:

\hat\mu = \frac{1}{N}\sum_{i=1}^{N}x_i\\\hat\sigma^2 = \frac{1}{N}\sum_{i=1}^N (x_i-\hat\mu)^2

回到我们小球检测的栗子,我们可以求出的高斯分布如下图:

在这一节中,我们介绍了怎样使用MLE来求解一元高斯分布。然而实际情况中,可能需要提取的特征值不止色相值这一个(比如RGB三个值)。

这样一元高斯分布不再适用。为了解决这个问题,我们将在下一节中介绍多元高斯分布。

3. 多元高斯分布

让我们回到小球检测的栗子,在一元高斯分布下,我们只使用了色相值这一个性质。然而,颜色其实是用多个维度来定义的。比如,在HSV模型下,除了色相值还有饱和度(Saturation)和亮度(Value)。

而我们通常使用的三原色光模式(RGB模型)将颜色表示成红色(R)、绿色(G)和蓝色(B)的叠加。

如果我们用RGB值来表示一个颜色,怎样表示我们栗子中的小球呢?我们将图片中所有像素点的RGB值用散点图的形式画出来可以得到下面的图:

那我们怎样对这种图形进行建模呢?如这一节的题目所说,我们将一元高斯分布扩展到多元高斯分布并对RGB值进行建模。
让我们首先来介绍多元高斯分布的数学形式吧:

p(\boldsymbol{x}) = \frac{1}{(2\pi)^{D/2}|\Sigma|^{1/2}}\exp\{-\frac{1}{2}(\boldsymbol{x}-\boldsymbol\mu)^T\Sigma^{-1}(\boldsymbol{x}-\boldsymbol\mu)\}

多元高斯分布和一元高斯分布是十分相似的,我们用加粗的\boldsymbol{x}来表示变量(一个向量),D表示维度(元的数目),加粗的\boldsymbol\mu表示平均向量,

大写的\Sigma表示协方差矩阵(Covariance Matrix,是一个方阵),|\Sigma|表示\Sigma的行列式值,(\boldsymbol{x}-\boldsymbol\mu)^T表示矩阵(\boldsymbol{x}-\boldsymbol\mu)的转置。

值得一提的是协方差矩阵,它由两部分组成,方差(Variance)和相关性(Correlation),对角线上的值表示方差,非对角线上的值表示维度之间的相关性。拿一个二维协方差矩阵作栗子:

其中,对角线上的\sigma^2_{x_1}\sigma^2_{x_2}分别表示变量x_1x_2的独立方差,非对角线上的\sigma_{x_1}\sigma_{x_2}表示两个变量之间的相关性(注意\sigma_{x_1}\sigma_{x_2}\sigma_{x_2}\sigma_{x_1}是相等的)。

回到小球检测的栗子,我们考虑用RGB来对“红色”小球进行多元高斯分布的建模,那么各个参数就如下图所示了:

我们来看一下标准二元高斯分布图:

各个参数的变化对多元高斯分布的影响请参考课程内容本身。

值得一提的是,协方差矩阵中的相关性参数是一元高斯分布中没有的。那么怎样求解多元高斯分布呢?确切地说,怎样求解多元高斯分布中的平均向量\boldsymbol\mu和协方差矩阵\Sigma呢?

4. 求解多元高斯分布:最大似然估计

和求解一元高斯分布类似,我们将问题描述为:给定观测值\{\boldsymbol{x_i}\},求\boldsymbol\mu\Sigma,使得似然函数最大:

\hat{\boldsymbol\mu}, \hat{\Sigma}=\text{arg}\ \underset{\boldsymbol\mu,\Sigma}{\max}\ {p(\{\boldsymbol{x_i}\}|\boldsymbol\mu,\Sigma)}

同样,假设观测值两两相互独立,根据独立概率公式,我们有:

\hat{\boldsymbol\mu}, \hat{\Sigma}=\text{arg}\ \underset{\boldsymbol\mu,\Sigma}{\max}\ {\prod_{i=1}^N p(\boldsymbol{x_i}|\boldsymbol\mu,\Sigma)}

同样(1)取对数,(2)将多元高斯分布的形式带入,我们有:

\begin{align} \hat{\boldsymbol\mu}, \hat{\Sigma} &= \text{arg}\ \underset{\boldsymbol\mu,\Sigma}{\max}\ \ln \prod_{i=1}^N p(\boldsymbol{x_i}|\boldsymbol\mu,\Sigma)\\ &= \text{arg}\ \underset{\boldsymbol\mu,\Sigma}{\max}\ \sum_{i=1}^N \ln p(\boldsymbol{x_i} | \boldsymbol\mu, \Sigma) \\ &= \text{arg}\ \underset{\boldsymbol\mu,\Sigma}{\max}\ \sum_{i=1}^N ( -\frac{1}{2}(\boldsymbol{x_i}-\boldsymbol\mu)^T\Sigma^{-1}(\boldsymbol{x_i}-\boldsymbol\mu) - \frac{1}{2}\ln |\Sigma| - \frac{D}{2}\ln (2\pi)  ) \\ &= \text{arg}\ \underset{\boldsymbol\mu,\Sigma}{\min}\ \sum_{i=1}^N ( \frac{1}{2}(\boldsymbol{x_i}-\boldsymbol\mu)^T\Sigma^{-1}(\boldsymbol{x_i}-\boldsymbol\mu) + \frac{1}{2}\ln |\Sigma|  ) \end{align}

我们给目标函数做个记号,令

J(\boldsymbol\mu, \Sigma) = \sum_{i=1}^N ( \frac{1}{2}(\boldsymbol{x_i}-\boldsymbol\mu)^T\Sigma^{-1}(\boldsymbol{x_i}-\boldsymbol\mu) + \frac{1}{2}\ln |\Sigma|  )

我们仍然分别对\boldsymbol\mu\Sigma求偏导来计算\hat{\boldsymbol\mu}\hat{\Sigma}。(这里需要矩阵求导的知识,可以参考Matrix Calculus Manual

\begin{align} \frac{\partial J}{\partial \boldsymbol\mu} &= \frac{\partial}{\partial\boldsymbol\mu}\sum_{i=1}^N(\frac{1}{2}(\boldsymbol{x_i}-\boldsymbol\mu)^T\Sigma^{-1}(\boldsymbol{x_i}-\boldsymbol\mu)+\frac{1}{2}|\Sigma|) \\&= \frac{\partial}{\partial\boldsymbol\mu}\frac{1}{2}\sum_{i=1}^N(\boldsymbol{x_i}^T\Sigma^{-1}\boldsymbol{x_i}-\boldsymbol{x_i}^T\Sigma^{-1}\boldsymbol\mu-\boldsymbol\mu^T\Sigma^{-1}\boldsymbol{x_i}+\boldsymbol\mu^T\Sigma^{-1}\boldsymbol\mu) \\&= \frac{\partial}{\partial\mu}\sum_{i=1}^N(\frac{1}{2}\boldsymbol\mu^T\Sigma^{-1}\boldsymbol\mu-\boldsymbol\mu\Sigma^{-1}\boldsymbol{x_i}) \\&= \Sigma^{-1}\sum_{i=1}^N(\boldsymbol\mu-\boldsymbol{x_i}) \\&= \boldsymbol{0} \end{align}\begin{align} \frac{\partial J}{\partial\Sigma} &=\frac{\partial}{\partial\Sigma}\sum_{i=1}^N(\frac{1}{2}(\boldsymbol{x_i}-\hat{\boldsymbol\mu})^T\Sigma^{-1}(\boldsymbol{x_i}-\hat{\boldsymbol\mu})+\frac{1}{2}\ln|\Sigma|) \\&= \frac{1}{2}\sum_{i=1}^N(-\Sigma^{-1}(\boldsymbol{x_i}-\hat{\boldsymbol\mu})(\boldsymbol{x_i}-\hat{\boldsymbol\mu})^T\Sigma^{-1}+\Sigma^{-1}) \\&= \frac{1}{2}\Sigma^{-1}(-(\sum_{i=1}^N(\boldsymbol{x_i}-\hat{\boldsymbol\mu})(\boldsymbol{x_i}-\hat{\boldsymbol\mu})^T)\Sigma^{-1}+N\boldsymbol{I}) \\&= \boldsymbol{0} \end{align}

求得,

\hat{\boldsymbol\mu}=\frac{1}{N}\sum_{i=1}^N\boldsymbol{x_i}

\hat\Sigma=\frac{1}{N}\sum_{i=1}^N(\boldsymbol{x_i}-\hat{\boldsymbol\mu})(\boldsymbol{x_i}-\hat{\boldsymbol\mu})^T

5. 高斯混合模型

在第一节和第四节,我们介绍了一元高斯分布和多元高斯分布,他们都属于单高斯模型(Single Gaussian Model)。

使用单高斯模型来建模有一些限制,例如,它一定只有一个众数,它一定对称的。举个例子,如果我们对下面的分布建立单高斯模型,会得到显然相差很多的模型:

于是,我们引入混合高斯模型(Gaussian Mixture Model,GMM)。高斯混合模型就是多个单高斯模型的和。

它的表达能力十分强,任何分布都可以用GMM来表示。例如,在下面这个图中,彩色的线表示一个一个的单高斯模型,黑色的线是它们的和,一个高斯混合模型:

在小球检测的栗子中,我们试图对红色小球建立单高斯模型(红和绿这二元),会发现红色小球的观测值不是很符合所建立的模型,如下图:

此时,如果我们采取高斯混合模型(两个二元高斯分布),会发现效果好了很多,如下图:

下面,我们来详细地介绍一下高斯混合模型,高斯混合模型的数学形式如下:

p(\boldsymbol{x})=\sum_{k=1}^Kw_kg_k(\boldsymbol{x}|\boldsymbol\mu_k,\Sigma_k)

其中,g_k是均值为\boldsymbol\mu_k,协方差矩阵为\Sigma_k的单高斯模型,w_kg_k的权重系数(w_k>0, \sum_{k=1}^Kw_k=1),K是单高斯模型的个数。

前面我们提到了GMM的优点(能够表示任何分布),当然GMM也有缺点。其一,参数太多了,每一个单高斯模型都有均值、协方差矩阵和权重系数,另外还有单高斯模型的个数K也是其中一个参数,这使得求解GMM十分复杂。其二,有时候所建立的高斯混合模型对观测值的建模效果很好,但是其他值可能效果不好,我们称这个缺点为过度拟合(Overfitting)。

这一节我们介绍了高斯混合模型,与前面类似,我们将在下节介绍求解混合高斯模型的方法。

6. 求解高斯混合模型:EM算法

在求解单高斯分布的时候,我们用最大似然估计(MLE)的方法得到了理论上的最优解。当我们使用相同的方法试图求解高斯混合模型的时候,会卡在中间步骤上(具体来说,是单高斯分布求和出现在了对数函数里面)。索性我们可以用迭代的方法来求解GMM,具体来说,最大期望算法(Expectation Maximization algorith,EM)。

上一节提到,我们想要求解GMM如下:

p(\boldsymbol{x})=\sum_{k=1}^Kw_kg_k(\boldsymbol{x}|\boldsymbol\mu_k,\Sigma_k)

这其中需要求解的变量很多:Kw_k\boldsymbol\mu_k\Sigma_k。为了简化问题,我们假定K是预先设定好的,并且每个单高斯分布的权重相等,即假定:

w_k = \frac{1}{K},k=1,2,\cdots,K

这样,我们需要确定的就只剩下每个单高斯分布的参数(\boldsymbol\mu_k\Sigma_k)了。

前面提到,这个模型是没有解析解(理论最优)的。取而代之,我们采取迭代的方法逼近最优解(大家可以回想一下牛顿法求近似求解方程,或者遗传算法)。

在牛顿法中,我们需要预先猜测一个初始解,同样在EM算法中,我们也需要预先猜测一个初始解(\boldsymbol\mu_1,\Sigma_1,\boldsymbol\mu_2,\Sigma_2,\cdots,\boldsymbol\mu_K,\Sigma_K)。

在EM算法中,我们引入一个中间变量z_k^i = \frac{g_k(\boldsymbol{x_i}|\boldsymbol\mu_k,\Sigma_k)}{\sum_{i=1}^Kg_k(\boldsymbol{x_i}|\boldsymbol\mu_k,\Sigma_k)}(k=1,2,\cdots,K;\ i=1,2,\cdots,N)

其中K是单高斯分布的个数,N是观测值的数目。

直观地可以这样理解:在确定了所有单高斯分布之后,可以计算观测值\boldsymbol{x_i}发生的概率(分母部分)和第k个单高斯分布g_k(\boldsymbol\mu_k,\Sigma_k)下观测值x_i发生的概率(分子部分),这样z^i_k就可以理解为第k个高斯分布对观测值x_i发生的概率的贡献了。如下表所示:

\begin{tabular}{|c|c|c|c|c|c|c|c|} \hline & $\frac{1}{K}$ & $\frac{1}{K}$ & $\cdots$ & $\frac{1}{K}$ & $\cdots$ & $\frac{1}{K}$ \\ & $\boldsymbol\mu_1$ & $\boldsymbol\mu_2$ & $\cdots$ & $\boldsymbol\mu_k$ & $\cdots$ & $\boldsymbol\mu_K$ \\ & $\Sigma_1$ & $\Sigma_2$ & $\cdots$ & $\Sigma_k$ & $\cdots$ & $\Sigma_K$ \\ \hline $x_1$ & $z^1_1$ & $z^1_2$ & $\cdots$ & $z^1_k$ & $\cdots$ & $z^1_K$ \\ \hline $x_2$ & $z^2_1$ & $z^2_2$ & $\cdots$ & $z^2_k$ & $\cdots$ & $z^2_K$ \\ \hline $\vdots$ & $\vdots$ & $\vdots$ & & $\vdots$ & & $\vdots$ \\ \hline $x_i$ & $z^i_1$ & $z^i_2$ & $\cdots$ & $z^i_k$ & $\cdots$ & $z^i_K$ \\ \hline $\vdots$ & $\vdots$ & $\vdots$ & & $\vdots$ & & $\vdots$ \\ \hline $x_N$ & $z^N_1$ & $z^N_2$ & $\cdots$ & $z^N_k$ & $\cdots$ & $z^N_K$ \\ \hline & $z_1$ & $z_2$ & $\cdots$ & $z_k$ & $\cdots$ & $z_K$ \\ \hline \end{tabular}

表中最后一行z_k=\sum_{i=1}^Nz^i_k可以理解为第k个单高斯分布对整个GMM的贡献。

例如,当GMM中K=2时(即由两个单高斯分布组成):

在这个图中,对于观测值\boldsymbol{x_i}p_1/2是第一个单高斯分布g_1\boldsymbol{x_i}发生的概率,p_2/2是第二个单高斯分布g_2\boldsymbol{x_i}发生的概率,(p_1+p_2)/2是在整个GMM下\boldsymbol{x_i}发生的概率;

z_1^i=\frac{p_1}{p_1+p_2}表示g_1\boldsymbol{x_i}发生概率的贡献,z_2^i=\frac{p_2}{p_1+p_2}表示g_2\boldsymbol{x_i}发生概率的贡献。


当我们算出了所有的z_k^i之后,我们再反过来用它更新每一个单高斯分布。更新的公式为:\boldsymbol\mu_k = \frac{1}{z_k}\sum_{i=1}^Nz_k^i\boldsymbol{x_i}
\Sigma_k = \frac{1}{z_k}\sum_{i=1}^Nz_k^i(\boldsymbol{x_i}-\boldsymbol\mu_k)(\boldsymbol{x_i}-\boldsymbol\mu_k)^T

大家可以想一想,对于第k个高斯分布g_kz_k^i/z_k可以理解为第i个观测值\boldsymbol{x_i}的贡献,而\boldsymbol\mu_k表示g_k的平均值,用\frac{1}{z_k}\sum_{i=1}^Nz_k^i\boldsymbol{x_i}来更新\boldsymbol\mu_k就很好理解了,进而再更新协方差矩阵\Sigma_k

这样,两组值互相更新,当相邻两个步骤值的差小于事先设定一个阈值(threshold)时(收敛),我们停止循环,输出\boldsymbol\mu_k\Sigma_k为所求。

值得一提的是,EM算法的结果和初值有很大关系,不同初值会得到不同的解。(想象一下GMM模型其实是多峰的,不同的初值可能最终收敛到不同的峰值,有的初值会收敛到全局最优,有的初值会收敛到局部最优)

7. 实战:小球检测

具体任务在这个网址:小球检测

简单来说,给你一些图片作为训练集,让你对黄色小球进行建模,建模完成后,读入最左边的原始图片,要求能像最右边的图片一样标识出小球的位置:

(注:我们使用matlab完成所有代码)

第一步:建立颜色模型

前面几节我们提到,要建立高斯分布模型,首先要有很多观测值,所以,我们将在这一步里面采集很多观测值,再建立高斯模型。课程里面提供了19张图片作为训练集供采样:

我们编写代码mark.m,作用为读入一张一张图片,然后手动圈出图片中的黄色小球,将圈中部分的像素RGB值存入观测值。

imagepath = './train';
Samples = [];
for k=1:19
    I = imread(sprintf('%s/%03d.png',imagepath,k)); % read files into RGB
    R = I(:,:,1);
    G = I(:,:,2);
    B = I(:,:,3);
    
    % Collect samples 
    disp('');
    disp('INTRUCTION: Click along the boundary of the ball. Double-click when you get back to the initial point.')
    disp('INTRUCTION: You can maximize the window size of the figure for precise clicks.')
    figure(1), mask = roipoly(I); 
    figure(2), imshow(mask); title('Mask');

    sample_ind = find(mask > 0); % select marked pixels
    R = R(sample_ind);
    G = G(sample_ind);
    B = B(sample_ind);
    
    Samples = [Samples; [R G B]]; % insert selected pixels into samples
    
    disp('INTRUCTION: Press any key to continue. (Ctrl+c to exit)')
    pause
end

save('Samples.mat', 'Samples'); % save the samples to file

figure, 
scatter3(Samples(:,1),Samples(:,2),Samples(:,3),'.');
title('Pixel Color Distribubtion');
xlabel('Red');
ylabel('Green');
zlabel('Blue');

 

结果我们采集了6699个观测值,散点图如下:
我们选用多元高斯分布作为我们的模型,应用第四节中的结论,编写代码coefficient.m求出平均值\boldsymbol\mu和协方差矩阵\Sigma并存储到本地以供后续使用。

mu = mean(Samples); % mu

sig=zeros(3,3); % sigma
for i=1:N
	data=double(Samples(i,:));
	sig=sig+(data-mu)'*(data-mu)/N;
end

% save the coefficients to files
save('mu.mat', 'mu');
save('sig.mat', 'sig');

接下来,我们需要编写函数detecBall,以图像为参数,以划分好的黑白图像和小球中心为输出,如下,I是输入的图像,segI是划分好的黑白图像,loc是球的中心点。detecBall.m的具体代码如下:

function [segI, loc] = detectBall(I)
load('mu.mat');
load('sig.mat');

Id=double(I); % array in size of (row, col, 3)

row=size(Id,1); 
col=size(Id,2);

% x_i - mu
for i=1:3
	Id(:,:,i) = Id(:,:,i) - mu(i);
end

% reshape the image to a matrix in size of (row*col, 3)
Id=reshape(Id,row*col,3);
 
% calc possibility using gaussian distribution
% be careful of using * and .* in matrix multiply
Id = exp(-0.5* sum(Id*inv(sig).*Id, 2)) ./ (2*pi)^1.5 ./ det(sig)^0.5;

% reshape back, now each pixels is with the value of the possibility
Id=reshape(Id,row,col);

% set threshold
thr=8e-06;

% binary image about if each pixel 'is ball'
Id=Id>thr;

% find the biggest ball area
segI = false(size(Id));

CC = bwconncomp(Id);
numPixels = cellfun(@numel,CC.PixelIdxList);
[biggest,idx] = max(numPixels);
segI(CC.PixelIdxList{idx}) = true;
%figure, imshow(segI); hold on;

S = regionprops(CC,'Centroid');
loc = S(idx).Centroid;
%plot(loc(1), loc(2),'r+');

需要注意的一点是,求像素属于小球的概率的时候,尽量用矩阵运算,而不要用循环,否则会效率低下,请读者仔细揣摩计算技巧,灵活运用矩阵的.*运算。

接下来,我们就可以测试小球检测的效果啦!

我们编写test.m测试训练集的19张图片:

imagepath = './train';
for k=1:19
    I = imread(sprintf('%s/%03d.png',imagepath,k));
    [segI, loc] = detectBall(I);
    figure, imshow(segI); hold on; 
    plot(loc(1), loc(2), '+b','MarkerSize',7); 
    disp('Press any key to continue. (Ctrl+c to exit)')
    pause
end

 效果如下:

成功!当然,我们也可以用其他种类的高斯模型对黄色小球进行建模,这里就不做示范啦!

转载于:https://www.cnblogs.com/lvchaoshun/p/7115460.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值