基于梯度下降的线性回归(Gradient Descent For Linear Regression)

文章介绍了梯度下降算法如何与线性回归相结合,用于求解最小化代价函数的问题。在拟合直线的线性回归模型中,通过计算代价函数的导数并应用梯度下降算法,不断迭代更新参数,直到找到使代价函数达到最小值的最优参数,从而实现模型的成功拟合。
摘要由CSDN通过智能技术生成
  • 概述
    梯度下降是很常用的算法,它不仅被用在线性回归上和线性回归模型、平方误差代价函数。在本次,我们要将梯度下降和代价函数结合。我们将用到此算法,并将其应用于具体的拟合直线的线性回归算法里。
    梯度下降算法和线性回归算法比较如图(左边梯度下降,右边是线性回归的目标函数以及代价函数):
    在这里插入图片描述
  • 计算相关公式:
    对我们之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,将右边线性回归的函数带入到左边的梯度下降算法中,即:
    在这里插入图片描述
    带入求导计算后,则算法改写成:
    在这里插入图片描述
  • 使用公式:
    最后,通过这个算法公式,去不断迭代得到在这里插入图片描述在这里插入图片描述,当得到的这两个参数使得代价函数为最小值,那么此时说明线性回归函数拟合成功。

参考内容:
吴恩达-机器学习
机器学习笔记

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值