一元线性回归模型与最小二乘法及其C++实现

原创 2012年12月02日 14:13:25

        监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...这里,谈一谈最简单的一元线性回归模型。

1.一元线性回归模型

模型如下:



总体回归函数中Y与X的关系可是线性的,也可是非线性的。对线性回归模型的“线性”有两种解释:

      (1)就变量而言是线性的,Y的条件均值是 X的线性函数

     (2)就参数而言是线性的,Y的条件均值是参数的线性函数

线性回归模型主要指就参数而言是“线性”,因为只要对参数而言是线性的,都可以用类似的方法估计其参数。

2.参数估计——最小二乘法

        对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

        (1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
        (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
        (3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

        最常用的是普通最小二乘法( Ordinary  Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)

样本回归模型:


残差平方和:


则通过Q最小确定这条直线,即确定,以为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:


解得:


3.最小二乘法c++实现

#include<iostream>
#include<fstream>
#include<vector>
using namespace std;

class LeastSquare{
	double a, b;
public:
	LeastSquare(const vector<double>& x, const vector<double>& y)
	{
		double t1=0, t2=0, t3=0, t4=0;
		for(int i=0; i<x.size(); ++i)
		{
			t1 += x[i]*x[i];
			t2 += x[i];
			t3 += x[i]*y[i];
			t4 += y[i];
		}
		a = (t3*x.size() - t2*t4) / (t1*x.size() - t2*t2);
		//b = (t4 - a*t2) / x.size();
		b = (t1*t4 - t2*t3) / (t1*x.size() - t2*t2);
	}

	double getY(const double x) const
	{
		return a*x + b;
	}

	void print() const
	{
		cout<<"y = "<<a<<"x + "<<b<<"\n";
	}

};

int main(int argc, char *argv[])
{
	if(argc != 2)
	{
		cout<<"Usage: DataFile.txt"<<endl;
		return -1;
	}
	else
	{
		vector<double> x;
		ifstream in(argv[1]);
		for(double d; in>>d; )
			x.push_back(d);
		int sz = x.size();
		vector<double> y(x.begin()+sz/2, x.end());
		x.resize(sz/2);
		LeastSquare ls(x, y);
		ls.print();
		
		cout<<"Input x:\n";
		double x0;
		while(cin>>x0)
		{
			cout<<"y = "<<ls.getY(x0)<<endl;
			cout<<"Input x:\n";
		}
	}
}



机器学习之线性模型

本课程主要讲解:线性模型的基本形式,线性回归模型,最小二乘法,对数线性回归,对数几率回归,线性判别分析,多分类学习等知识点。
  • 2018年01月09日 03:22

最小二乘法拟合多项式原理以及c++实现

最小二乘拟合曲线原理,以及c++详细代码,最后给出了测试用例,将一组数据拟合成二次曲线。...
  • u010418035
  • u010418035
  • 2015-06-30 16:45:28
  • 9100

最小二乘法及其C++实现

监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这...
  • t94127
  • t94127
  • 2017-03-19 17:05:18
  • 1829

最小二乘法及C++实现

最小二乘法--使得观测值与理论值得偏差平方和最小。 以一元线性回归说明: 假设从总体中获取了n组观察值(x1,y1),(x2,y2)......(xn,yn)。则对于这n个点,选择最佳拟合曲线的标准为...
  • u013593585
  • u013593585
  • 2016-05-14 10:01:16
  • 2447

基于最小二乘法的曲线拟合的C++代码的实现

简单思路如下: 1,采用目标函数对多项式系数求偏导,得到最优值条件,组成一个方程组; 2,方程组的解法采用行列式变换(两次变换:普通行列式——三角行列式——对角行列式——求解),行列式的求解算法上优化...
  • maweifei
  • maweifei
  • 2016-07-24 17:28:07
  • 4213

最小二乘法曲线拟合(C++)

  • 2010年10月23日 16:49
  • 6KB
  • 下载

最小二乘法及算法实现

最小二乘法最小二乘法 线性函数模型 矩阵表达形式 代码最小二乘法是一种优化方法。通过最小化误差的平方和来寻找数据的最佳函数进行匹配。线性函数模型:线性函数模型: Y=B^0+B^1X Y = \ha...
  • zkw12312
  • zkw12312
  • 2017-12-12 17:39:51
  • 832

线性回归介绍及分别使用最小二乘法和梯度下降法对线性回归C++实现

线性回归介绍及分别使用最小二乘法和梯度下降法对线性回归C++实现
  • fengbingchun
  • fengbingchun
  • 2017-09-08 11:09:34
  • 2221

最小二乘法及其c++实现

设经验方程是y=F(x),方程中含有一些待定系数an,给出真实值{(xi,yi)|i=1,2,...n},将这些x,y值代入方程然后作差,可以描述误差:yi-F(xi),为了考虑整体的误差,可以取平方...
  • u012244950
  • u012244950
  • 2014-05-06 19:18:23
  • 1932

最小二乘法拟合直线-C++实现

最近公司的一个项目需要计算TVDI(Temperature Vegetation Dryness Index ,温度植被干旱指数) ,TVDI的计算公式如下(具体原理自行百度): 其中,为任意像...
  • pl20140910
  • pl20140910
  • 2016-07-16 22:42:57
  • 5886
收藏助手
不良信息举报
您举报文章:一元线性回归模型与最小二乘法及其C++实现
举报原因:
原因补充:

(最多只允许输入30个字)