想起来写博客的时候已经学了一些了,前面的内容也简单,就从正规方程开始写吧。
目录
正规方程 Normal Equation
一般我们在自己进行线性回归的时候(非线性回归也可以),通常是运用梯度下降的方式:
但是在一些高级函数库中会采取正规方程的方法,其仅仅适用于线性回归方程。
优缺点
它的好处,当然就是不用再一步步进行迭代了,但是也有缺点:
1.仅适用于线性回归
2.当数据量或维度较大时(>10,000),速度很慢
使用场景
一般情况下,我们是不需要使用正规方程的方法的,但是在使用一些函数库的时候会涉及到相关用法。
特征缩放 Feature Scaling
当在进行多维方程的梯度回归时,经常会遇到两个特征的取值范围相差较大的情况,此时,较小的那个特征所起到的影响就会很小,从而影响回归方程的准确度:从另一个角度进行理解,由于梯度下降的公式
中学习率是一个值,因此无法兼顾相差较大的几个特征。
此时,就要进行特征缩放,从而使它们都具有可比的范围。
方法
归一化
例如,假设特征x1,x2 具有以下范围:
,
那么我们进行特征缩放,使得:
,
这种方法叫做归一化
均值归一化
同样的,假设特征x1,x2具有以下范围:
,
我们可以分别求出x1,x2的均值,记为
那么,进行均值归一化:
,
从而得出:
,
这种方法叫做均值归一化
Z-score 标准化
方法于均值归一化差不多,只是将分母的2000-300,5-0变成了求的其标准差(原来这个读西格玛)
,
缩放范围
一般来说,缩放的目标是将特征大小限制在(-1,1)之间,但实际过程中类似(-0.3,0.3),(-3,3),(0,1)之类的范围都是可取的,也不一定需要对称。