斯坦福大学统计学习笔记(二)

3.1 简单线性回归

线性回归很简单,但是也很有用

3.1.1 线性回归

简单粗暴,直接上模型:
Y=β0+β1X+ϵ
这个模型里面只有一种预测因素,即x,这是一个直线方程。β0、β1是一个常数,未知系数;ϵ表示噪声,偏离直线的情况。这是对“世界上所有数据“的假想模型,即我们假设“世界上所有数据“是从这个模型中产生的。虽然我们也不清楚这个假设对不对,但是就是这样假设了,看看结果好不好再决定对不对。
但是我们得不到“世界上所有的数据“,我们只有“训练数据集“,所以我们可以得到的预测模型是这样的:
Y^ =β^ 0+β^1X+ϵ
“hat“表示这个变量是estimated的,不是real的,也就是说我们对上面的“假设“在进行了一次假设。效果好不好得看结果才知道,这里就这么粗暴地假设了。
在这里插入图片描述

3.1.2 如何寻找最佳参数

模型中未知的是β^ ,将通过损失函数来得道。直接上损失函数,来评估这个estimated的模型的好坏,从而得到好的β^。
在这里插入图片描述
定义“残差“ (residual):ei=yi−yi^
定义“残差平方和“ (Residual Sum of Squares):RSS=e21+e22+…+e2n
我们的目的,让“残差平方和“最小。于是通过“求导等于0“来求解极小值点。因为只有β^ ,所以“求导等于0“可以把相应的β^求解出来。
在这里插入图片描述
我们不在乎数据点相对于线性模型是高了还是低了,只在乎残差平方和越小越好,即点到直线的距离越小越好。这便是“最小二乘法”“最小二乘拟合”。这样得到的结果有且仅有一条是拟合的最好的。
我们可以得到截距和斜率表达式
在这里插入图片描述

3.1.3 参数“好坏“评估

标准误差:
β0和β1的 Standard Error 定义如下:

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值