应用机器学习(八):线性模型

本文深入探讨了回归分析中的线性模型,包括线性回归模型的基本假设、回归系数的估计方法如最小二乘估计和最大似然估计,以及如何进行显著性检验。此外,还介绍了逐步回归法在自变量选择中的应用,以确定最优回归模型。
摘要由CSDN通过智能技术生成

回归分析

在统计建模中,回归分析( Regression analysis ) 是用来刻画变量之间的统计关系的一种统计技术。当一个变量( 因变量 dependent variable )受另外一些变量( 自变量 independent variables or predictors )的强烈影响时,适宜用回归的方法。例如,”回归”的思想和方法最早由英国著名的统计学家F. Galton 和他的学生 K. Pearson 提出。他们在研究父母身高与其子女身高的遗传问题时,以每对夫妇的平均身高作为自变量 x, 而取他们的一个成年孩子的身高作为 y, 共观察了1,078对夫妇,建立了回归方程 y=33.73+0.516x, 从此产生了回归分析的方法。

回归模型

回归模型的一般形式

设因变量 y , 自变量向量 x=(x1,x2,,xp) , 则刻画 y x 关系的回归模型的一般形式为

y=f(x)+ε(1)

其中, ε 为随机误差,它表示除了 x 外的其它随机干扰因素。正是因为 ε 的存在,给定 x 的值,不能唯一确定 y , 称这种变量关系为统计关系。随机变量 ε 满足基本假设 E(ε)=0 , 即零均值,它表示没有系统误差。

线性回归

线性回归( Linear regression ), 指的是 y x 之间是线性关系,即

y=β0+β1x1+β2x2++βpxp+ε(2)

其中的参数 β0,β1,,βp 称为回归系数。特别地, p=1 , 即一个自变量时,称模型为一元线性回归。

假设有 n 次观测数据 (yi;xi1,xi2,,xip),i=1,2,,n .
y=(y1,y2,,yn) , β=(β0,β1,,βp) ,
ε=(ϵ1,ϵ2,,ϵp) ,

X=111x11x21xn1x12x22xn2x1px2pxnp

则观测数据的线性回归模型可以表示为

yi=β0+β1xi1+β2xi2++βpxip+ε
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值