excel计算二元线性回归_实例分析,如何用最小二乘法做线性回归?

本文介绍了最小二乘法的概念及其在统计学中的应用,通过一元线性回归模型举例说明如何用最小二乘法进行线性回归分析。通过代数法和矩阵法求解参数,利用开源库Eigen用C++实现矩阵运算,并与Excel拟合结果对比验证。
摘要由CSDN通过智能技术生成

最小二乘法是一种通过数值对曲线函数拟合的一种统计学方法,这里的最小是拟合误差达到最小。我们可以根据拟合后的函数可以做一些预测或预报。它在数字信号处理、机器学习等领域广泛的应用。本文W君将和大家一起学习如何通过最小二乘法进行线性回归。

我们来用一个最简单的一元线性回归模型的例子来理解最小二乘法。在生活中,我们知道人的身高和脚的大小是成正比的,这里我们假设身高和脚的大小是成一元线性关系的。那么我们怎么去建立这样一个一元线性模型呢?我们从人群中随机抽取几个身高不同的人,分别测量他们的身高和脚长,假如下面的表格就是我们的统计数据。

da06f6500bf7049bfdd456cfec1a1cdf.png

将他们在坐标系上显示,如下图,可以看到这些数据是趋近于一条直线的。

83c8c9f4df4b1c8ebc3254a796036775.png

那么如何拟合这个直线呢?早在1805年勒让德就提出了最小二乘法。其方法就是根据已知的m个样本特征值,列出一个目标函数E,并求其最优解,从而使得实际值与预估值达到最小。这里的目标函数也叫损失函数,它是可以表征回归模型中估测值和真实值的不一致程度,其值越小越接近真实情况。它是由若干个预测值和真实之差的平方和构成,所以我们称之为最小二乘。

最小二乘法是一种常用的回归分析方法,用于确定两个变量之间的线性关系。在二元线性回归中,我们希望找到一个线性方程,将自变量 X 和因变量 Y 进行拟合。假设我们有 n 个样本数据,X 和 Y 分别表示自变量和因变量,则线性回归的模型可以表示为: Y = β0 + β1X + ε 其中,β0 和 β1 是模型的参数,ε 表示误差项。我们的目标是找到 β0 和 β1 的最优值,使得模型可以最好地拟合数据。 最小二乘法的基本思想是,通过最小化误差平方和来估计模型参数。误差平方和(SSE)是指模型预测值与实际值之间的差异的平方和,即: SSE = Σ(Yi - Ŷi)2 其中,Yi 表示第 i 个样本的实际值,Ŷi 表示模型预测的值。 为了最小化 SSE,我们需要对 β0 和 β1 分别求偏导,并令偏导数为 0,得到: β1 = Σ((Xi - X̄)(Yi - Ȳ)) / Σ(Xi - X̄)2 β0 = Ȳ - β1X̄ 其中,X̄ 和 Ȳ 分别表示自变量 X 和因变量 Y 的平均值。 下面是 Python 代码实现: ```python import numpy as np def linear_regression(x, y): # 求 X 和 Y 的平均值 x_mean = np.mean(x) y_mean = np.mean(y) # 根据公式计算 β1 和 β0 numerator = np.sum((x - x_mean) * (y - y_mean)) denominator = np.sum((x - x_mean) ** 2) beta_1 = numerator / denominator beta_0 = y_mean - beta_1 * x_mean return beta_0, beta_1 ``` 其中,x 和 y 是分别存储自变量和因变量的 numpy 数组。函数 linear_regression 返回 β0 和 β1 的值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值