ols残差_数据挖掘 第四篇:OLS回归分析

本文介绍了线性回归中的OLS(最小二乘法)原理,通过减少残差平方和来估计模型参数。在R中使用lm()函数进行线性回归模型的构建,并探讨了模型的统计假设:正态性、独立性、线性相关性和同方差性。此外,通过残差分析、Durbin-Watson检验、成分残差图和gvlma包的gvlma()函数进行回归诊断,评估模型的拟合优度和假设检验。
摘要由CSDN通过智能技术生成

变量之间存在着相关关系,比如,人的身高和体重之间存在着关系,一般来说,人高一些,体重要重一些,身高和体重之间存在的是不确定性的相关关系。回归分析是研究相关关系的一种数学工具,它能帮助我们从一个变量的取值区估计另一个变量的取值。

OLS(最小二乘法)主要用于线性回归的参数估计,它的思路很简单,就是求一些使得实际值和模型估值之差的平方和达到最小的值,将其作为参数估计值。就是说,通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法可用于曲线拟合,其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。

一,OLS回归

OLS法通过一系列的预测变量来预测响应变量(也可以说是在预测变量上回归响应变量)。线性回归是指对参数β为线性的一种回归(即参数只以一次方的形式出现)模型:

Yt=α+βxt+μt (t=1……n)表示观测数

Yt被称作因变量

xt被称作自变量

α、β 为需要最小二乘法去确定的参数,或称回归系数

μt为随机误差项

OLS线性回归的基本原则:最优拟合曲线应该使各点到直线的距离的平方和(即残差平方和,简称RSS)最小:

OLS线性回归的目标是通过减少响应变量的真实值与预测值的差值来获得模型参数(截距项和斜率),就是使RSS最小。

为了能够恰当地解释OLS模型的系数,数据必须满足以下统计假设:

正态性:对于固定的自变量值,因变量值成正太分布

独立性:个体之间相互独立

线性相关:因变量和自变量之间为线性相关

同方差性:因变量的方差不随自变量的水平不同而变化,即因变量的方差是不变的

二,用lm()拟合回归模型

在R中,拟合回归模型最基本的函数是lm(),格式为:

lm(formula, data)

formula中的符号注释:

~ 分割符号,左边为因变量,右边为自变量,例如, z~x+y,表示通过x和y来预测z

+ 分割预测变量

: 表示预测变量的交互项,例如,z~x+y+x:y

* 表示所有可能的交互项,例如,z~x*y 展开为 z~x+y+x:y

^ 表示交互项的次数,例如,z ~ (x+y)^2,展开为z~x+y+x:y

. 表示包含除因变量之外的所有变量,例如,如果只有三个变量x,y和z,那么代码 z~. 展开为z~x+y+x:y

-1 删除截距项,强制回归的直线通过原点

I() 从算术的角度来解释括号中的表达式,例如,z~y+I(x^2)

  • 0
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值