个人学习笔记(欢迎交流指正):
最小二乘法
1.1 最小二乘法简介
百度百科:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。
下面以最简单的一元线性回归模型来解释最小二乘法的原理。
1.2 一元线性回归模型
(1)一元线性回归模型一般形式:
残差形式为:
其中, 为样本(
)的误差。
(2)平方损失函数:
在训练集 上, 模型平方损失函数为:
1.3 最小二乘法求解
为了使求出的回归模型能够尽可能好的拟合训练样本,这条直线处于样本数据的中心位置最合理。选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:
(1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题(有正有负)。
(2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦(还是要判断正负)。
(3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性,这种方法对异常值非常敏感。(利用平方误差函数作为最优函数求解其实源自极大似然估计,有兴趣可以自己查一下相关数学背景)
以普通最小二乘法为例,使最小来确定直线,
可以看做是
和
的函数,问题转化为极值问题:
求对
和
的偏导数:
求得:
1.4 最小二乘法矩阵形式推广