一、线性回归(Linear regression)
线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记,用公式表达为:,使得。那么怎么求得w,b呢?基本使用最小二乘法和梯度下降。
- 最小二乘法:最小化均方差函数(本连载一中有相关解释)。
- 梯度下降:是一种迭代算法。选取适当的初值,不断迭代,更新参数值,进行目标函数的极小化,直到收敛。由于负梯度方向是使函数值下降最快的方向,在迭代的每一步,以负梯度方向更新参数的值。
梯度下降算法:
输入:目标函数f(x),梯度函数g(x) = ,计算精度。
输出:f(x)的极小点。
- 去初始值,置k=0.
- 计算.
- 计算梯度,当时,停止迭代,令=;否则,令,求,使.
- 置,计算,当或,停止迭代,令
- 否则 k = k+1 转3.