二元线性回归最小二乘法公式推导

如图所示


最小二乘法是一种常用的回归分析方法,用于确定两个变量之间的线性关系。在二元线性回归中,我们希望找到一个线性方程,将自变量 X 和因变量 Y 进行拟合。假设我们有 n 个样本数据,X 和 Y 分别表示自变量和因变量,则线性回归的模型可以表示为: Y = β0 + β1X + ε 其中,β0 和 β1 是模型的参数,ε 表示误差项。我们的目标是找到 β0 和 β1 的最优值,使得模型可以最好地拟合数据。 最小二乘法的基本思想是,通过最小化误差平方和来估计模型参数。误差平方和(SSE)是指模型预测值与实际值之间的差异的平方和,即: SSE = Σ(Yi - Ŷi)2 其中,Yi 表示第 i 个样本的实际值,Ŷi 表示模型预测的值。 为了最小化 SSE,我们需要对 β0 和 β1 分别求偏导,并令偏导数为 0,得到: β1 = Σ((Xi - X̄)(Yi - Ȳ)) / Σ(Xi - X̄)2 β0 = Ȳ - β1X̄ 其中,X̄ 和 Ȳ 分别表示自变量 X 和因变量 Y 的平均值。 下面是 Python 代码实现: ```python import numpy as np def linear_regression(x, y): # 求 X 和 Y 的平均值 x_mean = np.mean(x) y_mean = np.mean(y) # 根据公式计算 β1 和 β0 numerator = np.sum((x - x_mean) * (y - y_mean)) denominator = np.sum((x - x_mean) ** 2) beta_1 = numerator / denominator beta_0 = y_mean - beta_1 * x_mean return beta_0, beta_1 ``` 其中,x 和 y 是分别存储自变量和因变量的 numpy 数组。函数 linear_regression 返回 β0 和 β1 的值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值