最小二乘估计 Least Squares estimation

本文主要讲标准最小二乘方法及其常见的变形:加权最小二乘和总体最小二乘算法,关注不同方法之间的逻辑。

一、最小二乘估计(Least Squares estimation,LS)

最小二乘估计方法是一种不需要先验知识的常见参数估计方法。

假设信号模型为:

在雷达信号中,A为方向矢量,b为阵列接收信号,θ为原始目标信号,n为噪声。更一般的A为观测的系数矩阵,b为观测向量。

A常见有三种情况

1.当A为未知参数等于方程数,则上述方程为适定方程,存在唯一解

2.当A为未知参数小于方程数(行数多于列数),则上述方程为超定方程

3.当A为未知参数大于方程数(行数小于列数),则上述方程为欠收方程

一般雷达系统中最常见的为超定方程,为接收阵列数大于目标数。

最小二乘估计参数的代价函数,该准则为使误差的平方和最小

 代价函数J对未知变量θ求导,令求导结果为0,得到最小二乘的估计为

如果矩阵A是秩亏时,则称该参数是不可辨识的。

但是当误差向量的各个分量具有不同方差,或者各个分量是不相关的,则标准的最小二乘估计不再是最优的,引出需要寻找更一般的方法。

Gauss-Markov定理

该定理表示超定方程下,如果误差的向量的均值为零矩阵,方差矩阵为

 则该回归方程的最佳线性无偏估计的标准的最小二乘估计。因此当误差向量不满足该定理下的假设时,需要变换到该假设下,进而能得到最佳的估计值。

二、加权最小二乘(Weighted Least Squares estimation,WLS)

当误差向量的方差为为以下的构造形式

 对角线上方差值各不相同,但是对角线外元素为0,不满足Gauss-Markov假设,因此构造一个加权的代价函数,加权误差平方和,来作为优化的目标函数

  再令代价函数最小,对位置参数θ的估计值求导,可得加权最小二乘估计值为

  但是问题是,如何确定加权矩阵。根据误差向量的特定形式且

 矩阵V满足正定矩阵的结构,现代信号处理第三版_张贤达在p43式(2.6.8)有解释新的观测模型的误差向量的方差矩阵为单位矩阵和一常数的乘积,因此满足Gauss-Markov的假设。所以加权最小二乘估计的权值由误差的方差确定

 对加权最小二乘估计的物理解释为,由于噪声的协方差的对角元素值各不相同,根据各自的数值赋予该接收信号权值。如某个元素噪声过大,则与其对应的阵列接收信号向量则受噪声污染更严重,赋予其更小的权值,更愿意相信被噪声污染不严重的接收信号向量。

 三、广义最小二乘(Generalized Least Squares estimation)

 LS估计和WLS估计都是GLS估计的一种特殊形式,当噪声方差矩阵主对角上各元素不相等,同时非对角线上还有非零数值时,即

 LS和WLS的估计值都非最优的,根据噪声方差矩阵的形式构造一个新的模型

 接着对构造的新模型做LS估计得到最优估计结果

 四、总体最小二乘(Total Least Squares estimation)

 实际情况中,除了噪声的扰动导致接收信号有误差之外,系数矩阵A也会含有误差,此时应该同时考虑到接收信号b和系数矩    阵A二者的误差或者扰动,即新的信号模型修改为

 TLS估计的思想是使来自A和b的噪声扰动影响最小,根据信号模型,构造新的等式

 令扰动矩阵D的Frobenious范数最小,其中扰动矩阵

 求该优化方程的方法用到了奇异值分解做最佳逼近;大致过程为求增广矩阵B的奇异值分解,确定B的秩,利用奇异值分解的结果构造逼近矩阵B的估计。接着构造一个逼近矩阵的某些向量构造相关矩阵S,TLS的估计值为S矩阵的逆的归一化数值。具体过程在现代信号处理p133中。有机会详细说一下该过程的核心思想。

五、自适应最小二乘(Recursive Least Squares estimation)

这里是最小二乘的自适应实现,考虑了一种指数加权的最小二乘方法,代价函数为指数加权的误差平方和

有机会详细讲迭代自适应方法及一些典型的应用。


其他:

矩阵求逆引理

矩阵求逆引理(matrix inversion lemma)_家家的专栏-CSDN博客_矩阵反转引理

 MATLAB

“Line Fitting with Online Recursive Least Squares Estimation” 是MATLAB给出的一个迭代最小二乘参数估计的例子。

贴出来部分结果,感兴趣可以自行查看matlab相关文档

用来估计的offset和slope参数来做直线拟合。

### 回答1: 抗差估计和最小二乘估计都是统计学中常用的参数估计方法,但它们的基本思想和应用场景有所不同。 最小二乘估计是一种基于样本数据的经验估计方法,它的目标是最小化观测值与模型预测值之间的平方误差和。最小二乘估计通常用于数据中没有明显异常值的情况下,具有较高的计算效率和数学可解性。 抗差估计则是一种更加鲁棒的估计方法,它可以在存在少量异常值的情况下仍能得到较为准确的估计结果。抗差估计的基本思想是通过剔除异常值或者降低异常值的影响来提高估计的鲁棒性。抗差估计通常适用于数据中存在一些明显的异常值的情况下,但需要付出更高的计算成本和更复杂的数学推导。 在实际应用中,最小二乘估计和抗差估计都有其适用范围和局限性,需要根据具体问题和数据特点选择合适的方法。同时,最小二乘估计和抗差估计也可以结合使用,如通过最小二乘估计得到初步估计值,再通过抗差估计进行修正,以得到更加鲁棒和准确的估计结果。 ### 回答2: 抗差估计与最小二乘估计是两种常见的参数估计方法,它们的区别和联系如下: 区别: 1. 数据敏感性:最小二乘估计(Least Squares Estimation,简称LSE)对异常值和离群值非常敏感,即使一个极端值也能对参数估计产生显著影响。相比之下,抗差估计(Robust Estimation)对异常值的影响相对较小,更能适应存在异常值的数据。 2. 优化准则:LSE是根据最小化残差的平方和来确定参数估计值,即找到使得残差平方和最小的参数。而抗差估计一般采用一些鲁棒性更强的优化准则,如用中位数代替残差平方和。 3. 假设条件:LSE通常假设数据满足高斯分布,即误差服从正态分布。而抗差估计无需对数据分布进行假设,具有更广泛的适用性。 联系: 1. 线性模型:抗差估计和最小二乘估计都是用于线性回归模型的参数估计。它们的目标是找到一组最优参数,使得拟合数据与真实数据之间的残差最小。 2. 建立估计模型:无论是抗差估计还是最小二乘估计,它们都基于建立了统计模型,通过最大似然估计或最小二乘法求解模型参数。 综上所述,抗差估计与最小二乘估计的区别在于对异常值的敏感性、优化准则和数据分布的假设条件,同时它们联系紧密,都是线性回归模型中常用的参数估计方法,用于拟合数据和建立统计模型。 ### 回答3: 抗差估计与最小二乘估计是两种常见的参数估计方法,它们在应用场景、目标函数、鲁棒性等方面有着不同的区别与联系。 首先,抗差估计是一种针对数据中存在异常值或离群点的鲁棒性估计方法,旨在降低异常值对估计结果的影响。相比之下,最小二乘估计对异常值极为敏感,异常值会对估计结果产生较大的影响。 其次,抗差估计的目标是找到数据的一个子集,该子集能够最大程度地逼近真实参数值。常用的抗差估计方法包括RANSAC、M-估计等。而最小二乘估计则是通过最小化残差平方和来寻找使得模型与数据拟合最好的参数值。 在区别方面,抗差估计相对于最小二乘估计更具鲁棒性,能够有效应对数据中的异常值。而最小二乘估计对异常值非常敏感,异常值会拉大估计结果的误差。 在联系方面,两种估计方法都运用了数据拟合的思想,尝试寻找能够最好地拟合数据的参数值。它们都是通过优化目标函数来得到估计结果。具体而言,最小二乘估计通过最小化残差平方和来优化目标函数,而抗差估计则通过特定的优化算法寻找一个子集来最大化拟合程度。 总结来说,抗差估计与最小二乘估计在应用场景、目标函数、鲁棒性等方面有着明显的区别。抗差估计相对更鲁棒,能够有效应对异常值;而最小二乘估计则适用于数据无异常值的情况下,能够得到较精确的估计结果。两者在寻找最佳拟合参数值的基本思想上有一定的联系。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值