吴恩达机器学习(六)线性回归的梯度下降

1.先导知识

之前学习的内容:
在这里插入图片描述

2.线性回归的梯度下降

我们要做的是将梯度下降法应用到最小化平方差代价函数,

在这里插入图片描述
在这里插入图片描述
我们解决过的梯度下降问题之一就是它容易陷入局部最优,如下图,从表面下降,如何根据从哪里初始化决定最终取到不同的局部最优解。
在这里插入图片描述
在这里插入图片描述

线性回归的代价函数,总是一个弓状函数,即凸函数,这个函数没有局部最优解,只有一个全局最优,计算这种代价函数的梯度下降,只要使用线性回归,总是会收敛到全局最优。
在这里插入图片描述
这里有假设函数的曲线和代价函数J的曲线:
当θ0 = 900,θ1 = -0.1时
在这里插入图片描述
如果梯度下降一步,会从当前点向左下方移动一点点,同时左边的假设函数的线会往下一点点:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
假设函数越来越符合数据,最后得到了全局最小值。
刚刚学习的算法有时候被称作Batch梯度下降,意味着每一步梯度下降,都遍历了整个训练集的样本,所以在梯度下降中当计算偏导数时,我们计算总和。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值