Machine Learning:Multivariate Linear Regression

Multiple Features

多元线性回归时含有多个变量的线性回归
在这里插入图片描述
包含多个特征变量的假设函数如下
在这里插入图片描述
同时,假设函数也可简化成以下向量形式
在这里插入图片描述
注意:为了方便,我们令x0=1,因此能够使θ与x逐元素匹配(n+1)。

Gradient Descent For Multiple Variables

多个变量的梯度下降
在这里插入图片描述
即:
在这里插入图片描述

Gradient Descent in Practice I - Feature Scaling

我们可以通过将每个输入值都控制在近似的范围内来加快梯度下降的速度。因为θ在小范围内会迅速下降,而在大范围内会缓慢下降,因此当变量非常不均匀时,会无效率地振荡到最佳状态。

为了防止这种情况,我们通过修改输入变量的范围使它们大致相同,理想情况如下:
− 1 ≤ x ( i ) ≤ 1 −1 ≤ x_{(i)}≤ 1 1x(i)1
或:
− 0.5 ≤ x ( i ) ≤ 0.5 −0.5 ≤ x_{(i)}≤ 0.5 0.5x(i)0.5

我们可以使用两种方法特征缩小均值归一化

  • 特征缩放涉及将输入值除以输入变量的范围(即最大值减去最小值),从而得到新范围仅为1。
  • 均值归一化包括从输入变量的值中减去输入变量的平均值,从而使输入变量的新平均值仅为零。
    x i : = x i − μ i s i x_{i}:=\frac{x_{i}-μ_{i}}{s_{i}} xi:=sixiμi
    其中,μi是所有特征值的平均值,si是值的范围(最大值-最小值)或者是标准偏差

例如:
xi代表房价,其范围使100-2000,平均值为1000,则
x i : = p r i c e − 1000 1900 x_{i}:=\frac{price-1000}{1900} xi:=1900price1000

Gradient Descent in Practice II - Learning Rate

  • 调试梯度下降
    绘制x轴为迭代次数、y轴为J(θ)的图,如果J(θ)增加,则应该减小学习率α
  • 自动收敛测试
    如果在一次迭代中J(θ)减小小于E(E为小值,如10-3),但是实际上,很难选择此阈值

在这里插入图片描述
已经证明,如果学习率α足够小,则J(θ)将在每次迭代中减小。
在这里插入图片描述如果α太小:收敛缓慢。

如果 α太大:J(θ)可能不会在每次迭代中都减小,因此可能不会收敛。

Features and Polynomial Regression

我们可以通过几种不同的方式改进我们的特征和假设函数

  • 可以将多个特征组合成一个,例如可以结合X1和X2成为新的X3,通过采取X1*X2
  • 多项式回归:如果我们的假设函数不太适合数据,则不必是线性的(直线)。我们可以通过将其设为二次、三次或平方根函数等其他任何形式来更改假设函数的行为和曲线

例如:我们的假设函数时hθ(x)=θ01x1,然后我们可以基于x1,创建二次函数hθ(x)=θ01x12x12或三次函数hθ(x)=θ01x12x123x13,在三次函数中,我们创建新的特征x2、x3,其中x2=x12,x3=x13

一个很重要的点:如果以这种方式选择了特征,那么特征缩放将非常重要。
如果x1的范围为1-100,那么x12的范围为1-10000,x13的范围为1-1000000

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿S先森丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值