吴恩达机器学习笔记 —— 2 单变量线性回归

第一章讲述了基本的机器学习的概念以及分类,这里从单变量的线性回归入手,吴恩达讲解了机器学习中的几个重要因素,如模型、损失函数、优化方法等

更多内容参考 机器学习&深度学习

首先以房价预测入手:

房子的面积每平米的房价
2104460
1416232
1534315
852178

其中:

  • m 为 样本的数量
  • x 是样本的特征
  • y 是预测的值
  • \((x,y)\) 就是一条样本数据
  • \(({ x }^{ (i) },{ y }^{ (i) })\) 是第i条样本

o_%E5%90%B4%E6%81%A9%E8%BE%BE3_1.png

机器学习的过程就是通过上面的例子学习一个模型,当再次有数据x进来的时候,能给出对应的y值
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_2.png
代价函数就是真实的值与我们预测的值之间的偏差,由于偏差有可能正,有可能负,因此使用均方差来表示。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_3.png
不同的参数对应的损失值是不一样的,最终机器学习的目的就是寻找这个损失之最低的方法。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_4.png
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_5.png
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_6.png
在二维特征下,可以看成一个关于损失函数的等高线图。同一个线圈,损失函数的值是相同的。在越来越靠近中心点时,可以看到预测的直线越来越贴近样本值。证明在等高线最中心的位置(最低点),损失值是最小的。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_7.png
梯度下降可能找到是一个局部最优解,而不是全局最优解。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_8.png

  1. 参数随着每次迭代而改变
  2. α是学习率,可以控制每次步长的变化
  3. 每次改变的长度是基于偏导求解的
  4. 在修改参数时,应该统一计算修改的值,再统一进行调整

o_%E5%90%B4%E6%81%A9%E8%BE%BE3_9.png
无论在最低点的哪一侧,公式都能保证θ是朝着最低点的位置在变化。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_10.png
学习率的大小决定了能否快速找到最优解。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_11.png
随机梯度下降在靠近最优解的时候,步长将会变得越来越小。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_12.png
线性回归中,梯度下降是上面这样的。
o_%E5%90%B4%E6%81%A9%E8%BE%BE3_13.png

针对优化的方法,有batch梯度下降、随机梯度下降、mini-batch梯度下降等等

batch梯度下降

o_%E5%90%B4%E6%81%A9%E8%BE%BE3_14.png

随机梯度下降

o_%E5%90%B4%E6%81%A9%E8%BE%BE3_15.png

mini-batch梯度下降

o_%E5%90%B4%E6%81%A9%E8%BE%BE3_16.png

参考:https://blog.csdn.net/ymshan92/article/details/54790657

转载于:https://www.cnblogs.com/xing901022/p/9290853.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值