机器学习(吴恩达) 第2章 单变量线性回归(一元线性回归)

2-1 模型描述

  1. 符号:
    m = Numbers of training examples(训练样本的数量)
    x’s = “input” variable/features(输入变量/特征)
    y’s = “output” variable/“target” variable(输出变量/目标变量)
    (x,y) = one training example(一个训练样本)
    (x(i),y(i)) = ith training example(第i个训练样本)
  2. 监督学习算法如何工作?
    在这里插入图片描述
    给定训练集,通过学习算法得到假设函数。

2-2 代价函数

  1. 符号:
    Hypothesis: h θ ( x ) = θ 0 + θ 1 x h_\theta(x) = \theta_0 + \theta_1x hθ(x)=θ0+θ1x
    θ i ′ s \theta_{i's} θis:Parameters(模型参数)
    在这里插入图片描述

  2. 代价函数
    平方误差代价函数
    Cost function: J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta_0,\theta_1) = \frac{1}{2m}\displaystyle\sum_{i=1}^{m} (h_\theta(x^{(i)}) - y^{(i)})^2 J(θ0,θ1)=2m1i=1m(hθ(x(i))y(i))2
    Goal: m i n i m i z e θ 0 , θ 1 J ( θ 0 , θ 1 ) \mathop{minimize}\limits_{ \theta_0,\theta_1 } J(\theta_0,\theta_1) θ0,θ1minimizeJ(θ0,θ1)
    在这里插入图片描述

2-3,4 代价函数(一)(二)

在这里插入图片描述
在这里插入图片描述
右边的每一个点,都代表左边的某一条线。即代价函数中的每一对因变量(模型参数)都对应某一个假设函数。

2-5,6 梯度下降及其知识点总结

  1. 作用:将代价函数J最小化的算法。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    梯度下降找到的是局部最优解。
  2. 梯度下降算法的定义
    在这里插入图片描述
    其中,
    (1) α \alpha α 是学习速率, 代表下山的步子,即控制我们以多大的幅度更新参数 θ j \theta_j θj在这里插入图片描述在这里插入图片描述
    (2) θ 0 \theta_0 θ0 θ 1 \theta_1 θ1 需要同时更新。

2-7 线性回归的梯度下降

在这里插入图片描述
其中,导数项:
在这里插入图片描述
将算好的导数项带入后:
在这里插入图片描述
在线性回归中运用梯度下降:
在这里插入图片描述
(持续更新中…)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值