认识回归
回归是统计学中最有力的工具之一。回归的目的就是建立一个回归方程用来预测目标值,回归的求解就是求这个回归方程的回归系数。预测的方法当然十分简单,回归系数乘以输入值再全部相加就得到了预测值。
回归最简单的定义是,给出一个点集D,用一个函数去拟合这个点集,并且使得点集与拟合函数间的误差最小,如果这个函数曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归。
线性回归是机器学习中最基本的一个算法。
线性回归
线性回归也被称为最小二乘法回归(Linear Regression, also called Ordinary Least-Squares (OLS) Regression)。它的数学模型是这样的:
y = b + m* x+e
其中,b 被称为常数项或截距;m 被称为模型的回归系数或斜率;e 为误差项。a 和 b 是模型的参数。
当然,模型的参数只能从样本数据中估计出来:
y'= b' + m'* x
线性回归包括一元线性回归和多元线性回归,一元的是只有一个 x 和一个 y。多元的是指有多个 x 和一个 y。一元线性回归其实就是去找到一条直线,这条直线能以最小的误差 (Loss) 来拟合数据。