吴恩达机器学习(二)——机器学习之监督模型之回归模型之线性回归模型

线性回归通过房屋大小预测价格,用成本函数评估模型准确性,采用梯度下降法寻找最优模型。成本函数越小,模型预测效果越好。在梯度下降过程中,学习率控制参数更新步长,当达到局部最优解时,梯度为0,参数停止更新。
摘要由CSDN通过智能技术生成

y-hat一般指的就是预测值


线性回归模型实例

构建模型

我们有一个房子的大小size,得到房屋价格(price),通过这两个常数就可计算一个输入和输出的函数关系。
f w,b(x(i)) = wx(i) +b
i指的是第几个训练数据

评估模型——成本函数

参考链接: link

成本函数和损失函数的区别
机器学习领域我们经常会遇到cost function和loss function(也叫error function),而这两个function实际是有区别的。loss function通常用于衡量单个样本其预测值和实际值的“差距”,而cost function通常是针对样本集中的所有样本,而且是一个平均值。

通常来说,模型越准确,越接近真实,其cost function的值就越小
在线性回归问题中,通常使用square loss的形式。线性回归常用的square loss形式是均方误差MSE:
在这里插入图片描述

选择最优模型——梯度下降法

在训练模型的过程中,我们需要选择一个最符合数据的模型出来,根据上述我们可以知道,成本函数越小,说明训练的模型越能够有较好的预测效果。如下图,回顾整个过程:
在这里插入图片描述
一般最小化成本函数是通过梯度下降法(即先随机给出参数的一组值,然后更新参数,使每次更新后的结构都能够让损失函数变小,最终达到最小即可)
如下图,很形象的展示了找到局部最优参数w的过程
在这里插入图片描述

梯度下降如何实现

在这里插入图片描述
这里的α是学习率,表示参数更新的步长,α永远是正数,α越大,参数一次调整的幅度越大,很容易无法找到局部最优解,α如果太小了,可以找到局部最优解,但是找局部最优参数的速度就会变得非常慢。

找到局部最优解的情况

在这里插入图片描述
当找到局部最优解的时候,梯度(偏导数)为0,参数w不再更新,将不会再继续进行梯度下降的过程

为什么使用固定的学习率就可以达到局部最优解

在这里插入图片描述
因为随着越来越靠近成本函数局部最小值(收敛)的这个过程中,导数值也会越来越小,参数调整的幅度也会越来越小

线性回归模型的梯度下降公式

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值