机器学习-多变量线性回归

本文介绍了多变量线性回归的原理,包括形式、特征缩放的重要性以及如何通过梯度下降和正规方程求解最优解。特征缩放用于解决不同特征值范围差异大导致的函数图像畸形问题,而正规方程提供了一步求解最优解的方法,但不适用于所有复杂方程。
摘要由CSDN通过智能技术生成

多变量线性回归

形式:

在这里插入图片描述
这里要注意的是x0=1(恒等)

如果了解一点线性代数就知道可以简化为向量相乘(默认向量为列向量)
在这里插入图片描述

特征缩放(feature scaling)
当有多个特征值的时候,特征值的取值范围可能差别很大
当特征值的取值范围过大时,画出的函数图像可能会有点畸形
例如下面这样瘪瘪的椭圆
这样可能会在梯度下降时来回震荡
在这里插入图片描述
解决的办法就是特征缩放,一般来说控制特征值的范围在(-1,1)范围附近即可

如上 : x1=x1/2000, x2=x2/5

这样特征值的范围就都控制在一个合适的范围了

另一个方法是均值归一化
在这里插入图片描述
即减去特征值的平均值,再除以该特征值的标准差(max-min)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值