特征缩放 假设你有一个机器学习问题,倘若这个问题有多个参数,且你能保证这些参数的取值都在一个近似的范围内,那么使用梯度下降法时,就能更快地收敛。 假设,x1表示房子价格,在0 ~ 2000波动,x2表示房间数量,在1 ~ 5波动,此时有两个参数,那么代价函数的θ有θ0,θ1,θ2,忽略θ0,只有θ1和θ2时(分别对应x1和x2),由于x1和x2的取值相差很大,画出来的等值线会是数个非常瘦长的椭圆,这对于梯度下降是不利的。 因此这种情况下,可以使用特征缩放。