机器学习day2

模型描述

这个很简单了,大家一看就可以知道了

在这里插入图片描述这个是对应的我上一篇博客里的房价的问题的一个模型,左边一列为规格大小,我们称为X,右边一列是对应的房价,我们称为Y。如果大家学过函数,我建议大家就把这个X当做自变量或者是参数Y当做因变量或者是返回值。ok,那么还有一个m其实就是数据的组数,像上图我们就给出了4组数据,那么这里的m就是4。

代价函数,梯度下降,线性回归

  • 代价函数

废话不说,上图

在这里插入图片描述 在这里插入图片描述
这张图是博主自己对应上一张图写的一个注释。
在这里插入图片描述这张图左边就是在不同取值的θ–1下对应的h函数的图像,这张图为了更简便,我们把θ-0取值都为0,右边就是对应的J值,我们可以直观的看到,最小的J值是在θ-11的时候得到了,在左边就正好将三个×连成一条直线,对应的函数是h=x。
在这里插入图片描述这张图就是讲θ-0θ-1都进行取值的h函数图像和J函数图像。右图中,圆圈中心处就是咱们J值取最小的点。

  • 梯度下降
  • 首先我们从图像上来形象了解一下梯度下降,我们把对应的代价函数化成一张三维的图,那么显然我们要求的J的最小值就是这座山脉的山谷,ok,那我们假设一个点,就是我们目前所在处,我们一般假设为个自变量都是0的点。那么接下来,我们要做的就是一步步找到路径下山。下面这两张图就是我们在不同的起始位置的下山路径,我们发现不同的起始点走到的谷底可能不一样,是因为我们在山上时只能看到局部的最低山谷。

在这里插入图片描述
在这里插入图片描述
下面这张图就是对于梯度下降的定义。博主给个简单的解释,这个θ-j就是我们上图的坐标点,就是我们所处山脉的位置,这个梯度下降的函数就是让我们不断得到新的坐标点,知道这个坐标点所对应的j为最小值。
在这里插入图片描述

  • 线性回归

简单的博主来说,我们利用梯度下降的方法不断找到一个坐标点,直到我们找到最小的J值得过程,就是我们完成一个线性回归问题的过程,这种算法,我们称为Batch梯度下降算法。那么恭喜各位,今天学习了第一种算法了!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值