机器学习 Machine Learning- 吴恩达Andrew Ng 第6~10课总结

YouTube课程地址

https://www.youtube.com/playlist?list=PLOXON7BTL9IW7Ggbc09jLqGmzkwPI4-3V
截止2021-5-3, 有112 个视频
在这里插入图片描述

1. 第6课 Model Representation, Linear regression with one variable

例子:预测房价,根据房子大小预测要卖1250 feet^2 大小的房子,价格大概是220k。
因为是线性回归问题,可以用Supervised Learning 监督学习的方法得到模型公式。
在这里插入图片描述

参数解析:

  • x为入参房子的大小
  • y为预测结果,房子的价格
  • 训练的结果为(x, y), 有很多对。
    在这里插入图片描述
    训练步骤为:
  1. 准备训练数据 Training Set
  2. 学习算法Learning Algorithm, 这里为线性函数 h(x) = θ0 + θ1 * x
  3. h 表示 hypothesis, 表示map的意思,表示从x 推导出 y。
    在这里插入图片描述

2. 第7课 Cost function - Linear regression with one variable

线性函数 h(x) = θ0 + θ1 * x, 如何选择(θ0, θ1)?
在这里插入图片描述
看看如下三个取值的,二维图表示

在这里插入图片描述
Cost function 计算值与实际值的差的平方之和, 除以 2m就是能耗方程 J(θ0, θ1) 。
在这里插入图片描述

3. 第8课 Cost function intuition I - Linear regression with one variable

一元一次方程h(x) = θ0 + θ1 * x,为了简化说明,去掉了参数θ0,得到简化方程 h(x) = θ1 * x

在这里插入图片描述

h(1) -> J(1) = 0

在这里插入图片描述

h(0.5) -> J(0.5) = 0.68

在这里插入图片描述

h(0) -> J(0) = 2.3

在这里插入图片描述

能耗方程是为了计算最小值为最优解,也就是h(1) -> J(1) = 0
在这里插入图片描述

4. 第9课 Cost function intuition II - Linear regression with one variable

线性回归涉及到的方程和目标如下
在这里插入图片描述

线性回归,假设 f(x) = a * x 的能耗图如右侧所示
在这里插入图片描述
线性回归方程 h(x) = θ0 + θ1 * x , 能耗图为如下 3维弓形图
在这里插入图片描述
能耗的3维弓形图,每个横截面都是环形,同一个环的点能耗是相同的。
在这里插入图片描述

5 第10课 Gradient descent 阶梯式下降算法 - Linear regression with one variable

阶梯式下降算法的流程:

  1. 先初始化一个点;
  2. 逐步缩小能耗值 J(θ0 + θ1), 直到最小;
  3. 注意选取的初始值不同,得到的最小值也不一定相同,类似于贪心算法。(下面会有两个初始值的距离)
    在这里插入图片描述
    初始值1的结果:
    在这里插入图片描述

初始值2的结果
在这里插入图片描述
同步更新算法才是正确的:Correct: Simultaneous update
alpha 表示learning rate,也就是学习的速率。速率决定是快速拟合,还是慢速拟合(找到最佳值)。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值