一、原理
线性回归的梯度下降:其实就是将梯度下降算法和代价函数相结合。
上图左边的蓝色框里的就是梯度下降法公式,右边的分别是线性回归模型以及平方误差代价函数。目的就是利用梯度下降的方法来最小化平方误差代价函数。
需要知道,最重要的是梯度下降法的导数部分,在梯度下降法公式与代价函数结合后的导数部分形式如下:
要留意的是,求导时系数分母有个2被约掉了。
现在代价函数对于的偏导已知,将他们带入梯度下降法公式 ,有:
对于上式需要说明以下,因为我在刚刚学的时候也有点懵:由于是常数,或者说对应的为1;而对于的迭代,后面乘的 指的是第 i 个特征值(在这里即),这从求偏导的过程中就可以看出来。如果有多个特征值,即:
,当等新权重时,