一、最小二乘法(最小平方法)
参考来源:一元线性回归模型与最小二乘法及其C++实现
http://blog.csdn.net/qll125596718/article/details/8248249
监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...
最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。常值非常敏感。
二、梯度下降法
视频——斯坦福大学ML课程第二讲
笔记——F:\学习资料\斯坦福大学ML\斯坦福ML公开课非官网笔记\斯坦福ML公开课笔记1-2 (笔记网上应该都能找到)
(此笔记中梯度下降法推导准确,下标含义叙述清晰)
其他参考:http://blog.csdn.net/woxincd/article/details/7040944
梯度下降法与梯度的关系理解;
http://www.cnblogs.com/hitwhhw09/p/4715030.html
迭代规则:
ML公开课笔记要点摘录:
三、最小二乘法与梯度下降法异同:
更多分析见:https://www.zhihu.com/question/20822481