吴恩达机器学习(一)监督学习与无监督学习

∗ ∗ ∗   点 击 查 看   : 吴 恩 达 机 器 学 习   — —   整 套 笔 记 + 编 程 作 业 详 解   ∗ ∗ ∗ \color{#f00}{***\ 点击查看\ :吴恩达机器学习 \ —— \ 整套笔记+编程作业详解\ ***}   :  + 


人工智能 机器学习 神经网络 深度学习 的关系

网上找的图

推荐阅读:机器学习和深度学习综述


监督学习

(Supervised Learning)

给定一组数据点输入 { x ( 1 ) , . . . , x ( m ) x^{(1)},...,x^{(m)} x(1),...,x(m)} 和 其对应的输出 { y ( 1 ) , . . . , y ( m ) y^{(1)},...,y^{(m)} y(1),...,y(m)},我们想要建立一个算法,学习如何从 x x x 预测 y y y

  • 举例如下:有一个数据集(dataset),给出 房屋面积 和 房价 的关系:
    在这里插入图片描述
    以 面积为横坐标,房价为纵坐标 组成数据点,得到下图:
    在这里插入图片描述

  • 提出问题如下:
    根据这些数据,当给出一个新的房屋面积时,如何预测其对应的房价?

  • 建立如下模型:

NameExplanation
x ( i ) x^{(i)} x(i)输入变量(房屋面积),也叫做 输入特征(input features
y ( i ) y^{(i)} y(i)输出变量(房价),也叫做 目标变量(target variable
( x ( i ) , y ( i ) ) (x^{(i)},y^{(i)}) (x(i),y(i))训练样本点(training example
{ ( x ( i ) , y ( i ) ) , i = 1 , . . . , m } \lbrace(x^{(i)},y^{(i)}),i=1,...,m\rbrace {(x(i),y(i)),i=1,...,m}训练集(training set, m m m为训练样本数量
  • 根据以上模型来描述监督学习问题:
    给定一个训练集(training set),我们需要学习(learn)出一个函数 h : x → y h:x→y h:xy,使得 h ( x ) h(x) h(x) 能够很好的预测 y y y,即 ∣ h ( x ) − y ∣ |h(x)-y| h(x)y的值越小越好,对应的函数 h h h 被称为假设(hypothesis)。如下如图所示:
    在这里插入图片描述
  • 监督学习根据 目标变量(target) 分为两种
    • 回归问题:当试图预测的目标变量 y y y连续的,例如在上述房价例子中,我们称该学习问题为回归问题,如下图:
      在这里插入图片描述
    • 分类问题 :当 y y y 只能取少量离散值时,例如,给定房屋面积和房价,我们想要预测该房屋是别墅还是公寓,则称之为分类问题:
      在这里插入图片描述

无监督学习

(Unsupervised Learning)

与监督学习不同的是,在无监督学习中,我们的数据没有附带任何标签,例如这样:

在这里插入图片描述
常见的无监督学习有:

(1)聚类:对大量未知标注的数据集,按数据的内在相似性将数据集划分为多个类别,使类别内的数据相似度较大而类别间的数据相似度较小。

(2)降维:找出一些轴,在这些轴上训练数据的方差最大。这些轴就是数据内潜在的结构。我们可以用这些轴来减少数据维度,数据在每个保留下来的维度上都有很大的方差。

推荐阅读:一文看懂无监督学习(基本概念+使用场景+2类典型算法)

  • 4
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值