回归标准差和残差平方和的关系_统计的基石:简单线性回归

本文介绍了简单线性回归的基础,包括公式、数据准备、散点图、回归方程计算及模型评估。通过实例展示了回归直线如何影响mpg与wt之间的关系,强调了回归系数的统计意义。
摘要由CSDN通过智能技术生成
记得关 注 " R语言与统计 "~~ 简单线性回归(Simple linear regression) 也称为一元线性回归,是分析 一个自变量(x)与因变量(y)之间线性关系的方法,它的目的是拟合出一个线性函数或公式来描述x与y之间的关系。 线性回归是统计学中最基础、重要、并且被广泛使用的方法之一。 据KD Nuggets网站的调查报告显示,回归方程位列 Top1,是被数据科学家应用次数最多的方法,据说这样的领先地位将会持续到2118年!
可以这么说:得回归者得天下 b74581dab9e0efd3a4de41f6b66e3158.png

2096f70e901dcd20ebb6bbfb5dbdd65b.png

来源: KD Nuggets

回归(Regression)是一种即简单又复杂的技术。关于回归理论与数学原理的教科书可以厚达上千页。
不过,它的应用相对容易上手,方程的解释也比较的直观简单。 今天选择回归中最基础的简单线性回归作为开始,之后会逐渐延伸到其他类型的回归。 7b15dc28d9ccb710595b433e730da484.png

1. 简单线性回归的公式与基础

简单线性回归可以用下方的数学公式表示:  y= a + b*x + error 其中: y为因变量; x为自变量; a为截距; b为斜率; error为残差,即 没有被回归方程解释的变异部分。 (关于残差请查看往期文章: 手把手教你画出统计上极其重要的概念:残差 )。 下方的图片可以帮助大家更加清楚的了解上述各个元素到底代表什么: 

f525f0f83c8909a3728f3d6b67b3d6d0.png

线性回归的拟合就是将 残差的平方和(Residual Sum of Squares或RSS)降到最低的过程。通过找到最小的RSS,从而计算出回归系数(a与b),这种方法也称为最小二乘回归(Least squares regression)。 18ece3bccc453972518e6e01d6eea9d0.png 下图可以帮助我们更加容易的理解残差与RSS(来自我们的往期文章: 手把手教你画出统计上极其重要的概念:残差 ):  e8a791acd213b9227070364b0eafc6f7.png RSS即
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值