CS281: Advanced Machine Learning 第三节 高斯模型

高斯模型

这章节主要围绕着多元高斯模型展开,它会是之后咱们看到的很多模型的基础。

多元高斯模型


多元高斯模型和一元高斯模型很类似,只是均值变为了均值向量,方差变为了协方差,一维衡量距离的norm 2,在高位扩展成为了Mahalanobis 距离(xμ)TΣ1(xμ

接下来咱们想形象直观的理解高斯模型,首先从多元高斯模型的公式入手推导,由于协方差矩阵是对称的,所以它可以分解为特征向量正交矩阵的样式:Σ = UΛUT  

且有:UT U = I ,Λ是其特征值组成的对角矩阵,进而:


将上公式结果带入多元高斯模型:


回想椭圆的表达式:


所以这边lamda决定了椭球的各个轴长,而向量u决定了椭球的旋转方向。


下面来看几个二元高斯模型的实例:


MLE for an MVN (GDA model)

如果我们现在有数据X,y,y有两种状态,现在想对新的数据x进行分类,即预测P(y | x),我们可以model一下,设y服从伯努利分布,而X服从多元高斯分布:


即:


这里咱们的模型中有参数:φ, Σ, μ0 and μ

似然函数的log表示为以下形式:




通过最大化似然函数的log,最终咱们可以得到(证明过程较繁琐,省去):


即:


所以最大似然的结果就是,均值和协方差都可以从已有的样本中得到,这样咱们就能够建立两个多元高斯模型了:


接下来咱们的GDA分类器要做的是将新的数据x分别代入到两个模型中,计算出最后的概率,谁大就选谁。咱们进一步仔细观察两个多元高斯模型发现,分类器最终衡量的就是新数据分别到两个模型的Mahalanobis distance ,所以可以表示如下:

所以这也可以叫做最邻近中心分类器。

Quadratic discriminant analysis (QDA) 

QDA的表达式如下:

仔细观察发现就是目标类别发生概率占所有类别发生概率的比例,但是这里需要注意的是他们每个多元高斯模型的协方差不一样。

Linear discriminant analysis (LDA)

LDA就是将QDA简化了一下:假设了 Σ c = Σ ,那么将QDA的公式上半部分展开,并去掉前端常数部分:


因为:xT Σ1x与类别c无关,且分子分母都有,所以可以省去。 

设:


所以原公式可以转化为:


where:


S叫做soft max函数,定义如下:






References

MLAPP

CS229

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值