简单易懂的人工智能系列:一元线性回归

简单易懂的人工智能系列:一元线性回归

一元线性回归模型

在研究某一现象时,主要关心与影响该现象最主要因素关系时,两者有密切联系,但并非一个变量唯一确定另一变量,可以使用一元线性回归模型。一元线性理论回归模型: 

                                   

由于随机误差的不可消除,我们认为,理论回归模型的期望就是一元线性回归方程:

回归方程从平均意义上表达了变量 y 与 x 的统计规律性。

回归分析的主要任务就是通过 n 组样本的观察值,对  进行估计,得到最终方程。

参数估计:OLE

我们这里所使用的是普通最小二乘估计(Ordinary Least Square Estimation, OLE):根据观察数据,寻找参数 \(\beta_0\) 、\(\beta_1\) 的估计值 \(\hat{\beta_0}\) 、\(\hat{\beta_1}\),使观测值和回归预测值的离差平方和达到极小。估计值 \(\hat{\beta_0}\) 、\(\hat{\beta_1}\)称作回归参数 \(\beta_0\) 、\(\beta_1\)的最小二乘估计。

通过上述过程就求出了 \(\hat{\beta_0}\) 、\(\hat{\beta_1}\),就可以得到一元线性回归方程。

我们来看个栗子:

参数估计:最大似然估计MLE

最大似然估计(Maximum Likehood Estimation,MLE):利用总体的分布密度或者概率分布的表达式及其样本所提供的信息求未知参数估计量的一种方法。

MLE 的基本思路:已知样本符合某种分布,但分布的具体参数位置,通过实验,估算分布的参数。估算的思想为:已知某组参数能使当前样本出现的概率最大,就认为这组参数为最终的估计量。

举个栗子:

假设各个样本是简单随机抽样(独立同分布),我们就是要找到某组参数已知的情况下,使当前样本出现的概率最大的这组参数。(也就是求使得  取最大值的参数\(\theta\))。

对于这个投硬币的栗子,在没有求解前我们可以这么认为 :

接下来看求解过程:

Fk8gzIcQp75o4Wj840XWg3tj9189uploading.4e448015.gif转存失败重新上传取消

有偏估计和无偏估计

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

薛定谔的猫96

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值