斯坦福大学公开课 :机器学习课程(Andrew Ng)——3、监督学习:Gaussian Discriminant Analysis (GDA)

0)高斯判别分析模型适用于输入特征x是连续型随机变量的情况,主要目的是确定后验概率p(x|y)

1)判别模型和生成模型(Discriminative/Generative Model)

2)高斯判别分析(Gaussian Discriminant Analysis(GDA))

  2.1) 多元正态分布

  2.2) 高斯判别模型分析

  2.3) 利用高斯判别模型进行分类

  2.4)高斯判别分析(GDA)与logistic回归的关系



0)高斯判别分析模型适用于输入特征x是连续型随机变量的情况,主要目的是确定后验概率p(x|y)

1)判别模型和生成模型(Discriminative/Generative Model)

    Discriminative Algorithms:mapping directly from X to the labels {0, 1}。

   Generative Algorithms: try to model p(x|y=0), p(x|y=1),p(x) = p(x|y=1)*p(y=1)+p(x|y=0)*p(y=0),p(y=1),p(y=0)

   然后利用贝叶斯公式将统一性:

clip_image011[8]

   由于我们关注的是y的离散值结果中哪个概率大,而并不是关心具体的概率,因此上式改写为:

clip_image001[4]

   其中clip_image005[4]称为先验概率,人为指定或根据每个y=0/1在样本中所占的比例近似;clip_image003[4]称为后验概率,是我们想要真正计算的

2)高斯判别分析(Gaussian Discriminant Analysis(GDA))

   高斯判别分析:assume that p(x|y) is distributed according to a multivariate normal distribution(多元正态分布)。

  2.1) 多元正态分布

多变量正态分布描述的是n维随机变量的分布情况,这里的clip_image009变成了向量,clip_image011[10]也变成了矩阵clip_image013。写作clip_image015[4]。假设有n个随机变量X1,X2,…,Xn。clip_image009[1]的第i个分量是E(Xi),而clip_image017[4]

概率密度函数如下:

clip_image018[28]

其中|clip_image020[8]clip_image013[1]的行列式,clip_image013[2]是协方差矩阵,而且是对称半正定的。

clip_image009[2]是二维的时候可以如下图表示:

clip_image022

其中clip_image009[3]决定中心位置,clip_image013[3]决定投影椭圆的朝向和大小。

如下图:

clip_image024

对应的clip_image013[4]都不同。

  2.2) 高斯判别模型分析

如果输入特征x是连续型随机变量,那么可以使用高斯判别分析模型来确定p(x|y)

模型如下:

clip_image025[6]

输出结果服从伯努利分布,在给定模型下特征符合多元高斯分布。通俗地讲,在山羊模型下,它的胡须长度,角大小,毛长度等连续型变量符合高斯分布,他们组成的特征向量符合多元高斯分布。

这样,可以给出概率密度函数:

clip_image026[8]

最大似然估计如下:

clip_image027[8]

注意这里的参数有两个clip_image009[4],表示在不同的结果模型下,特征均值不同,但我们假设协方差相同。反映在图上就是不同模型中心位置不同,但形状相同。这样就可以用直线来进行分隔判别。

求导后,得到参数估计公式:

clip_image028[4]

clip_image030[6]是训练样本中结果y=1占有的比例。

clip_image032[4]是y=0的样本中特征均值。

clip_image034[6]是y=1的样本中特征均值。

clip_image013[5]是样本特征方差均值。

如前面所述,在图上表示为:

clip_image035[8]

直线两边的y值不同,但协方差矩阵相同,因此形状相同。clip_image009[5]不同,因此位置不同。

  2.3) 利用高斯判别模型进行分类

a)根据训练样例,利用2.2)中描述的方法计算出了高斯判别模型中的4个参数。

b)对于一个新的待分类数据x,根据下面的式子计算p(x|y=0)*p(y=0)和p(x|y=1)*p(y=1)哪个大,对应的y就是x要归为的类。

clip_image001[4]

  2.4)高斯判别分析(GDA)与logistic回归的关系

将GDA用条件概率方式来表述的话,如下:

clip_image036[8]

y是x的函数,其中clip_image037[8]都是参数。

进一步推导出

clip_image038[4]

这里的clip_image040[4]clip_image041[8]的函数。这个形式就是logistic回归的形式。

也就是说,如果p(x|y)符合多元高斯分布,那么p(y|x)符合logistic回归模型。反之,不成立。为什么反过来不成立呢?因为GDA有着更强的假设条件和约束。


如果认定训练数据满足多元高斯分布,那么GDA在训练集上是最好的模型。然而,我们往往事先不知道训练数据满足什么样的分布,更不应该做很强的假设,此时采用logistic回归的方法就比较合适。 例如,如果训练数据满足泊松分布(而不是多元高斯分布),即

clip_image042[4]          clip_image043[6],此时p(y|x)仍然是logistic回归的,但不是多元高斯分布,采用GDA效果也会比较差。这也是logistic回归用的更多的原因。


参考:http://www.cnblogs.com/jerrylead/archive/2011/03/05/1971903.html
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值