吴恩达机器学习笔记(三)

梯度下降的线性回归

梯度下降算法和线性回归算法比较如图:

对于线性问题运用梯度下降算法,关键就在于代价函数的导数

 

这个算法有时也被成为批量梯度下降算法,这里的批量指在每一步我们更新𝜃都用到所有的训练样本,当然有时对于其他类型的梯度下降罚,不是这种“批量”型的,不需要考虑整个训练集,而是只关注其中一些子集,这个我们以后会学到。

正规方程

可以在不需要多步梯度下降的情况下,也能解出代价函数𝐽的最小值,这是另一种称为正规方程(normal equations)的方法。实际上在数据量较大的情况下,梯度下降法比正规方程要更适用一些。正规方程我们会在以后的博客中进行详解,现在写给出公式:

读者如有兴趣可以查看链接:

详解正规方程(Normal Equation) - 知乎第一篇机器学习文章希望做到详细而优雅 相信学过线性回归的小伙伴对标题图片中的方程式一定不陌生。用的时候可能并不知其所以然,大一下学期我在学校学习完了线性代数和多元函数微积分的知识后,重新认识了这个方…https://zhuanlan.zhihu.com/p/60719445

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值