线性回归模型:
将梯度下降函数应用最小化平方差代价函数(把 J 代入一下)
对于局部最优解和全局最优解,线性回归的代价函数总是碰不上这类问题,因为他们的图形是:
假设函数(h),代价函数(J)(类似于数值最接近方程和误差最小loss的函数)
随着对代价函数取到最优点,假设函数也是一步步地随之变化,越来越和数据点更重叠,有更好的拟合。
我们以上使用的可以被叫做Bacth梯度下降:
即每一步梯度下降都使用了整个训练集。也就是每一步代价函数会改动一次假设函数,得到更好地线性回归模型。
利用矩阵实现对四所房子价格的预测:
多个特征值:
【多元线性回归】多特征值假设:几个特征值,在构建假设函数的时候就构建几个Xn;
用梯度下降的方法处理多元线性回归:
特征缩放:
均值归一化:能使梯度下降更快一点【对于每一个特征值都进行均值一次的话,那么它的数据就非常接近,
就会很好求最优 点
通过下面这条迭代曲线可以看出梯度算法是否收敛:
选择合适的学习率ɑ:
size指的是房子的面积,最好在构建模型的时候对其进行特征缩放。
可以选择多种不同的拟合函数: