Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 线性回归中的梯度下降法

本节将梯度下降与代价函数结合,并拟合到线性回归的函数中

这里写图片描述

这是我们上两节课得到的函数,包括:

  • 梯度下降的公式
  • 用于拟合的线性假设和h(x)
  • 平方误差代价函数 J(θ0 , θ1)

步骤

  • 我们把J(θ0 , θ1)带入到左边的梯度下降公式中,展开成下面形式
    这里写图片描述

  • 我们假设梯度下降算法起始地两个初值J = 0 , 1 。分别对θ0 和θ1求偏导
    这里写图片描述

  • 带入到我们的梯度下降公式中得到:
    这里写图片描述
  • 然后我们不断执行算法,θ0 和 θ1 不断被更新,直到收敛。
    这就是我们的线性回归算法。

梯度下降算法是如何工作的?

我们上节课展示的梯度下降算法是这样的

这里写图片描述

不同的点可能走到不同的局部最优点
但是事实证明用于线性回归的代价函数总是一个凸函数的形式
这里写图片描述
在线性回归中,无论如何我们只能找到一个全局最优解
下面我们通过轮廓图展示下降过程:


轮廓图展示:

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

图左边对应着相应的假设函数,最终我们找到了数据最好的拟合结果,现在就可用利用这条直线来预测结果。

批量梯度下降法:

这里写图片描述

刚才这种梯度下降法同样也可以称为批量梯度下降法,因为在刚才的下降过程中,我们每一步都计算了对训练集中所有的样本就行了求和运算。
  • 当然也有些梯度下降算法在每次计算式只关注数据集中小部分。将在后面课程介绍。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值