换个角度看回归——极大似然估计

本文介绍了极大似然估计的概念,通过极大似然估计重新审视线性回归和逻辑回归。线性回归中,最小二乘法和极大似然估计殊途同归,都导致了正规方程的求解;而在逻辑回归中,模型基于伯努利分布,通过极大似然估计得到损失函数。文章帮助读者深入理解这两种回归模型的本质。
摘要由CSDN通过智能技术生成

极大似然估计与回归

极大似然估计

先简单说下似然(likelihood)和概率(probability)的区别,两者都是对可能性的表示。概率是在给定了一定参数值后,表示了一件事物发生的可能性;而似然则反其道而行之,是在给定了一系列结果后,表示了某一组参数值的可能性。那么最大似然估计的思想,就是在给定了一组结果后哪一组参数的可能性最大;反过来说,就是使用这样一组参数,出现给定结果的可能性最大。即条件概率 P(X|Θ)=L(Θ|X)

根据机器学习的目的,我们就是在找寻一组参数,这组参数可以让机器取代人工进行分类、拟合等功能,从定义的角度来看,极大似然估计似乎正是我们所需要的。下面我们就用极大似然估计的方法来重新学习下线性回归和逻辑回归(LR)。

线性回归

最小二乘法

想必大家已经对线性回归足够的了解,再简单回顾一下,给定一组样本 X 和结果 Y ,希望得到一组参数 Θ 从而能够尽可能使得 Yi XTiΘ 相近 。假设 Yi^=XTiΘ ,那么对于样本 Xi 来说,其估计的误差就是 |YiYi^| 。那么我们想要得到一组最好的参数 Θ ,就代表我们要尽可能缩小所有样本的误差之和,这就是最小二乘法的本质。

根据上面的回顾,我们很容易得到常用的代价函数:

J(Θ)=12mi=0m(YiYi^)2

而我们接下来要做的就是最小化这个代价函数从而能够找到一组参数 Θ 使得总误差最小。

极大似然法

那么我们现在就从极大似然估计的角度来看一下线性回归的本质。现在我们假设 Yi=XTiΘ+ϵi=Yi^+ϵi 。 这个式子中 ϵ 代表着误差。且 ϵiN(0,σ2) 。 这个条件也就解释了为什么线性回归是 高斯模型 的。

现在我们来看一下我们要求的 P(Yi

  • 6
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值