稳健估计/M估计/最小二乘法

摘要:稳健估计是在粗差不可避免的情况下,选择适当的估计方法使未知量估计尽可能减免粗差的影响,得出正常模式下的最佳估计。本文先介绍基于最小二乘法的多元线性回归理论,再引出基于M估计的加权最小二乘估计。
关键词:稳健估计,M估计,最小二乘法,加权,极限学习机
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

4、结尾

文章的最后就要提极限学习机了,黄广斌提出的极限学习机的原理虽说是单隐层前馈神经网络,说白了就是以最小二乘为基础的,所以说最小二乘估计的思想必须牢牢掌握。

参考文献
[1]胡义函, 张小刚, 陈华, and 李晶辉: ‘一种基于鲁棒估计的极限学习机方法’, 计算机应用研究, 2012, 29, (8), pp. 2926-2930

  • 19
    点赞
  • 140
    收藏
    觉得还不错? 一键收藏
  • 12
    评论
稳健最小二乘法(Robust Least Squares)是一种用于拟合数据的统计方法,它能够处理包含异常值或噪声的数据。在Python中,可以使用Scipy库中的optimize模块来实现稳健最小二乘法。 下面是一个简单的Python示例代码,演示如何使用Scipy库实现稳健最小二乘法: ```python import numpy as np from scipy import optimize # 生成带有噪声的数据 np.random.seed(0) x = np.linspace(0, 10, 100) y_true = 2 * x + 5 y_noise = y_true + np.random.normal(size=len(x)) # 定义拟合函数 def linear_func(params, x): a, b = params return a * x + b # 定义误差函数 def error_func(params, x, y): return linear_func(params, x) - y # 初始参数估计值 initial_guess = [1, 1] # 使用LevMarLSQFitter进行拟合 robust_fit = optimize.least_squares(error_func, initial_guess, args=(x, y_noise), loss='soft_l1') # 输出拟合结果 print("拟合参数:", robust_fit.x) # 绘制原始数据和拟合曲线 import matplotlib.pyplot as plt plt.scatter(x, y_noise, label='Noisy Data') plt.plot(x, linear_func(robust_fit.x, x), 'r', label='Robust Fit') plt.plot(x, y_true, 'k--', label='True Line') plt.legend() plt.show() ``` 在上面的代码中,我们首先生成了一个带有噪声的线性数据集。然后,定义了拟合函数和误差函数(即拟合函数与观测数据之间的差异)。接下来,我们通过调用`optimize.least_squares`函数来执行稳健最小二乘拟合,其中`loss='soft_l1'`指定了使用Soft L1损失函数。最后,我们绘制了原始数据、拟合曲线和真实曲线的图形。 希望这个例子对你有帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值