两阶段最小二乘法原理_最小二乘法原理详解

本文是 Least squares approximation 的学习笔记。这个视频从线性代数的角度,对最小二乘法的原理讲解的通俗易懂。

1 提出问题

3fdc1c8e667c23a22aa8884b335ce09b.png

如上图所示:

A: 是一个n行k列的矩阵,每行可以看作是一个观测数据(或者一个训练样本)的输入(features);

b: 是一个n维的列向量,每项表示一个观测数据的目标值(ground truth target value);

x: 是一个k维的列向量,是需要构建的线性模型的参数。

我们希望通过已知的A和b,求解出一个x,使得Ax = b。 但是,一般情况下,不存在满足这个等式的x。 怎么办?

2 分析问题

Ax = b这个等式的左边,可以看作是一个矩阵A的列空间(Column space of A)。 这个等式没有解,可以理解为向量b不在矩阵A的列空间上。 如下图所示: 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
阶段最小二乘法是一种用于解决线性回归问题的方法,它将数据集分为阶段进行处理,首先进行初步的估计,然后再进行更加精确的估计。它的原理是利用阶段的估计结果,不断优化模型参数,使得模型拟合数据更加精确。下面将详细介绍阶段最小二乘法的步骤。 步骤一:初步估计 首先,我们需要对数据集进行初步的估计,以得到模型的初始参数。这个步骤通常使用OLS(普通最小二乘法)来完成。OLS是一种常见的线性回归方法,它通过最小化残差平方和来估计模型参数。 假设我们的数据集有n个样本,每个样本有m个特征,我们可以将数据表示为一个n×m的矩阵X。同时,我们有一个n×1的向量y,表示每个样本的输出值。我们的目标是找到一个m×1的向量β,使得y≈Xβ。 使用OLS,我们可以得到初始的β值。具体地,我们可以使用以下公式计算β: β=(XTX)−1XTy 其中,XT是X的转置矩阵,(XTX)−1是XTX的逆矩阵。这个公式就是OLS的标准形式。 步骤二:剔除异常值 在得到初始估计之后,我们需要检查数据集中是否有异常值。异常值可能会对我们的模型造成很大的影响,因此我们需要将它们剔除。 对于线性回归问题,我们可以使用残差分析来检测异常值。残差是指估计值与真实值之间的差异,我们可以通过计算每个样本的残差来检测异常值。如果某个样本的残差比较大,那么它就可能是一个异常值。 一般来说,如果某个样本的残差大于2倍标准差,那么它就可以被认为是异常值。我们可以将这些异常值从数据集中剔除,然后重新进行最小二乘估计。 步骤三:精确估计 在剔除异常值之后,我们可以得到更加精确的数据集。接下来,我们需要使用一个更加准确的方法来估计模型参数。 一种常用的方法是WLS(加权最小二乘法)。WLS与OLS类似,但是它会给每个样本赋予一个权重,以反映样本的重要性。给予较大权重的样本会对估计结果产生更大的影响,从而提高模型的精度。 具体地,我们可以将每个样本的权重表示为一个n×n的对角矩阵W,其中Wii表示第i个样本的权重。然后,我们可以使用以下公式计算WLS的估计值: β=(XTWX)−1XTWy 其中,XT和y的含义与OLS相同,但是X需要乘以W的平方根。 需要注意的是,W的选择需要根据具体问题进行调整。一般来说,我们可以将W设置为一个与样本残差有关的函数,以反映不同样本的重要性。 总结: 阶段最小二乘法是一种用于解决线性回归问题的方法,它将数据集分为阶段进行处理,首先进行初步的估计,然后再进行更加精确的估计。它的原理是利用阶段的估计结果,不断优化模型参数,使得模型拟合数据更加精确。具体步骤包括:初步估计、剔除异常值、精确估计。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值