机器学习week 10 笔记-吴恩达coursera 大规模机器学习与在线学习机制

本文介绍了大规模机器学习中的学习曲线、随机梯度下降(SGD)、小批量梯度下降以及如何选择合适的学习速率。重点讨论了SGD在处理大数据集时的优势,并解释了在线学习机制在连续数据流中的应用。此外,还提及了神经网络的并行计算以及Map Reduce在批处理中的作用。
摘要由CSDN通过智能技术生成

(最后两周,就没有编程作业了,所以这里只列举一下上课的重要知识点。)

一、大规模机器学习

1.1 学习曲线

训练集数目m较小时,如左图,有高方差,代表数据不够;右图,为高偏差,说明模型参数有问题。
在这里插入图片描述
如下所示:用更多的数据集效果更好-先画数据集少时有高方差,即上面的左图。
在这里插入图片描述

1.2 Stochastic Gradient Descent 随机梯度下降

  • Batch Gradient Descent 批量梯度下降,一次梯度变化,需要对全部数据集计算完。
  • 随机梯度下降的过程:打乱数据-预处理、对每个数据进行依次的梯度迭代遍历(随机迂回,最终在接近全局最小值的区域内徘徊)
  • 随机梯度下降处理大数据集的计算量更小-不必每次都代入所有数据。
    在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值