线性回归-2-梯度下降

考虑下面的训练样本:
这里写图片描述
我们希望通过房屋面积和卧室数量估计房屋价格。
这在里,输入 x 是一个2维的向量。
并且我们用x(i)1表示训练集中第 i 个样本的第一个特征(这里是居住面积),用x(i)2表示第 i 个样本的卧室数。
首先我们假设yx线 hθ(x)=θ0+θ1x1+θ2x2。为了方便,我们令 x0=1 ,这样上式就可以写成矩阵形式(我们不再区分 h(x)hθ(x) ):

h(x)=i=0nθixi=θTx

我们期望通过 h(x) 输出的结果(即估计值),与样本的实际值尽可能的接近,即 h(x(i))y(i) 的绝对值尽量小。因此引入代价函数:
J(θ)=12i=1m(hθ(x(i))y(i))2

梯度下降算法

我们期望获得使得 J(θ) 尽可能小的 θ 。考虑梯度下降法:

θj:=θjαθjJ(θ)

这里 α 是学习速率, θ 的初始值是随机的(当然也可以指定初值)。
下面让我们看上式中的求导部分,先考虑一个样本下的情况:
这里写图片描述

因此对于一个训练样本我们可以得到更新规则:
这里写图片描述

下面将其扩展到整个训练样本集。两种方法:
1、批梯度下降法,也就是对全部的训练数据针对某一特征上求得误差后再对 θ 进行更新,需要一次读取所有样本。:
这里写图片描述
2、增量梯度下降,每次只读取一个样本,依次用每个样本来更新,该方法有可能因为 α 的选取不当导致无法收敛:
这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值