吴恩达机器学习入门——单变量线性回归

吴恩达机器学习入门——单变量线性回归

模型

h为假设函数
h为假设函数,通过训练集的输入,经过学习算法,可以得到假设函数。这个假设函数就可以来计算回归值(预估值)。

代价函数

代价函数也称为平方误差函数。它是解决回归问题的最佳手段。
在这里插入图片描述
代价函数主要用于之后求出和样本数据最佳拟合的假设函数的一个辅助函数,它就是利用假设函数的预测值减去真实值的平方和的值作为结果。代价函数最小的参数即为假设函数的参数。
下图为假设函数的两个参数都存在的情况下,代价函数的图形。最小代价函数的参数在谷底。
在这里插入图片描述
下图为假设函数只有一个参数的坐标图:
在这里插入图片描述

梯度下降算法

在这里插入图片描述
梯度下降算法主要用于求代价函数的最小值,它是一个同步迭代的式子。
其中α是学习率(learning rate)。
梯度下降算法要做到同步更新,即求出 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1的值之后,再代入原式。直到代价函数收敛。上一步的式子还可以进一步优化,把求导数展开:
在这里插入图片描述

接下来我们看一下梯度下降算法是如何起作用。
一、首先我们假设 θ 0 \theta_0 θ0为0,它的坐标图如下图:
在这里插入图片描述
θ 1 \theta_1 θ1取在右边,其偏导数为正值,这样 θ 1 \theta_1 θ1就会一直减小直到收敛。
同样,当 θ 1 \theta_1 θ1取在左边,其偏导数为负值,这样 θ 1 \theta_1 θ1就会一直增大。
θ 1 \theta_1 θ1刚好在收敛点上,那么偏导数为0,这时 θ 1 \theta_1 θ1就不会有变化了。

α它决定了我们沿着能让代价函数下降程度最大的方向向下迈出的步子有多大,这是我们自己决定的,太小或太大都不行。如果太小那么迭代次数就会过多,相反太大的话就可能想不好,错过局部最小值。
在这里插入图片描述
我们通常10倍取值,也可以3倍等进行取值。

二、若 θ 0 \theta_0 θ0不为0的话,则梯度下降算法就是沿图中红点的方向移动,直到圆中心的点,刚好收敛。如下图。
在这里插入图片描述
下图中黑色的线即为每次通过梯度下降算法计算出来的路线。
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值