最小二乘法的线性拟合

转载:http://blog.csdn.net/lotus___/article/details/20546259

最小二乘法

   我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...

   对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

        (1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
        (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
        (3)最小二乘法的原则是以“
残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

  最常用的是普通最小二乘法( Ordinary  Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

  样本回归模型:

                                     其中ei为样本(Xi, Yi)的误差

   平方损失函数:

                      

   则通过Q最小确定这条直线,即确定,以为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:

                       

    根据数学知识我们知道,函数的极值点为偏导为0的点。

    解得:

                   

 

这就是最小二乘法的解法,就是求得平方损失函数的极值点。

 

三. C++实现代码

  /*
  最小二乘法C++实现
  参数1为输入文件
  输入 : x
  输出: 预测的y  
  */
  #include<iostream>
  #include<fstream>
  #include<vector>
  using namespace std;
  
  class LeastSquare{
      double a, b;
  public:
      LeastSquare(const vector<double>& x, const vector<double>& y)
      {
          double t1=0, t2=0, t3=0, t4=0;
         for(int i=0; i<x.size(); ++i)
          {
              t1 += x[i]*x[i];
              t2 += x[i];
              t3 += x[i]*y[i];
              t4 += y[i];
          }
          a = (t3*x.size() - t2*t4) / (t1*x.size() - t2*t2);  // 求得β1 
          b = (t1*t4 - t2*t3) / (t1*x.size() - t2*t2);        // 求得β2
      }
  
      double getY(const double x) const
      {
          return a*x + b;
      }
  
      void print() const
      {
          cout<<"y = "<<a<<"x + "<<b<<"\n";
      }
  
  };
  
  int main(int argc, char *argv[])
  {
      if(argc != 2)
      {
          cout<<"Usage: DataFile.txt"<<endl;
          return -1;
      }
      else
      {
          vector<double> x;
          ifstream in(argv[1]);
          for(double d; in>>d; )
              x.push_back(d);
          int sz = x.size();
          vector<double> y(x.begin()+sz/2, x.end());
          x.resize(sz/2);
          LeastSquare ls(x, y);
          ls.print();
          
          cout<<"Input x:\n";
          double x0;
          while(cin>>x0)
          {
              cout<<"y = "<<ls.getY(x0)<<endl;
              cout<<"Input x:\n";
          }
      }
  }


最小二乘法与梯度下降法

   最小二乘法跟梯度下降法都是通过求导来求损失函数的最小值,那它们有什么区别呢。


   相同

  1.本质相同:两种方法都是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的dependent variables进行估算。
  2.目标相同:都是在已知数据的框架内,使得估算值与实际值的总平方差尽量更小(事实上未必一定要使用平方),估算值与实际值的总平方差的公式为:

                             \Delta =\frac{1}{2} \sum_{i=1}^{m}{(f_{\beta }(\bar{x_{i}} )-y_{i})^{2} }

   其中\bar{x_{i} } 为第i组数据的independent variable,y_{i} 为第i组数据的dependent variable,\beta 为系数向量。



   不同
  1.实现方法和结果不同:最小二乘法是直接对\Delta求导找出全局最小,是非迭代法。而梯度下降法是一种迭代法,先给定一个\beta ,然后向\Delta下降最快的方向调整\beta ,在若干次迭代之后找到局部最小。梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感,其改进大多是在这两方面下功夫。

  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python中的最小二乘法线性拟合是一种统计分析方法,用于通过拟合一个线性模型来估计数据集中的关系。这种方法适用于当我们有一组自变量和对应的因变量时,想要找到一个最佳拟合线来描述两者之间的关系。 最小二乘法线性拟合的目标是找到一条直线,使得所有数据点到该直线的垂直距离之和最小。而这条直线可以用方程y = mx + b表示,其中m是斜率,b是y轴截距。 在Python中,可以通过使用Scipy库中的stats.linregress()函数来进行最小二乘法线性拟合。这个函数可以计算出相关系数、斜率、截距、标准误差等拟合结果。 下面是一个简单的示例,展示如何使用Python进行最小二乘法线性拟合: ```python import numpy as np from scipy import stats # 准备数据 x = np.array([1, 2, 3, 4, 5]) y = np.array([2, 3, 4, 5, 6]) # 进行最小二乘法线性拟合 slope, intercept, r_value, p_value, std_err = stats.linregress(x, y) # 打印拟合结果 print("斜率:", slope) print("截距:", intercept) print("相关系数:", r_value) print("p值:", p_value) print("标准误差:", std_err) ``` 这段代码中,我们首先准备了一组数据x和对应的因变量y。然后,使用stats.linregress()函数进行最小二乘法线性拟合,并将结果赋值给变量slope, intercept, r_value, p_value和std_err。最后,我们打印出了拟合结果。 最小二乘法线性拟合可用于数据分析、预测和回归问题。通过找到最佳拟合线,我们可以更好地理解数据的关系,并在之后的应用中进行预测和推断。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值