动手学深度学习-1.前言

本文介绍了机器学习的三大主要类型:监督学习、无监督学习和强化学习。监督学习涉及回归和分类问题,如预测房价和手写字符识别。无监督学习则在无标签数据中寻找模式,如聚类和主成分分析。强化学习关注通过与环境互动学习最佳策略,如机器人控制和游戏AI。
摘要由CSDN通过智能技术生成

机器学习:监督学习、非监督学习、强化学习

监督学习:回归、分类


监督学习:

  • 目标是生成一个模型,能够将任何输入特征映射到标签,即预测。举一个具体的例子。 假设我们需要预测患者是否会心脏病发作,那么观察结果“心脏病发作”或“心脏病没有发作”将是我们的标签。 输入特征可能是生命体征,如心率、舒张压和收缩压。

 回归:

  • 回归(regression)是最简单的监督学习任务之一。 比方说,假设我们有一组房屋销售数据表格,其中每行对应于每个房子,每列对应于一些相关的属性,例如房屋的面积、卧室的数量、浴室的数量以及到镇中心的步行分钟数等等。 对机器学习来说,每个样本即为一个特定的房屋,相应的特征向量将是表中的一行。 家中的(平方英尺、卧室数量、浴室数量、步行距离)特征向量可能类似于:[600,1,1,60][600,1,1,60]。 然而,如果你住在匹兹堡,这个特征向量可能看起来更像[3000,4,3,10][3000,4,3,10]…… 为什么这个任务可以归类于回归问题呢?本质上是输出决定的。 假设你在市场上寻找新房子,你可能需要估计一栋房子的公平市场价值。 销售价格,即标签,是一个数值。 当标签取任意数值时,我们称之为回归问题。 我们的目标是生成一个模型,它的预测非常接近实际标签值。
  • 生活中的许多问题都可归类于回归问题。 比如,预测用户对一部电影的评分可以被认为是一个回归问题。因为评分是一个数值,标签(即输出)是数值时,为回归问题。再比如,预测病人在医院的住院时间也是一个回归问题。 总而言之,判断回归问题的一个很好的经验法则是,任何有关“多少”的问题很可能就是回归问题。比如:这个手术需要多少小时?在未来六小时,这个镇会有多少降雨量?

    分类:

  • 虽然回归模型可以很好地解决“有多少?”的问题,但是很多问题并非如此。 例如,一家银行希望在其移动应用程序中添加支票扫描功能。 具体地说,这款应用程序需要能够自动理解照片图像中看到的文本,并将手写字符映射到已知字符之一(这个类就是几万种了,有一万个汉字就是一万个类)。 这种“哪一个?”的问题叫做分类(classification)问题。 分类问题中,我们希望模型能够预测样本属于哪个类别(category,正式称为(class))。 例如,对于手写数字,我们可能有10类,分别数字0到9。 最简单的分类问题是只有两类,我们称之为“二元分类”。 例如,数据集可能由动物图像组成,标签可能是{猫,狗}两类{猫,狗}两类。 在回归中,我们训练一个回归函数来输出一个数值而在分类中,我们训练一个分类器它的输出即为预测的类别

    无监督学习:

  • 到目前为止,所有的例子都与监督学习有关,即我们向模型提供巨大数据集:每个样本包含特征和相应标签值
  • 相反,如果你的工作没有十分具体的目标,你就需要“自发”地去学习了。 如你的老板可能会给你一大堆数据,然后让你用它做一些数据科学研究,却没有对结果要求我们称这类数据中不含有“目标”的机器学习问题为无监督学习(unsupervised learning)。那么无监督学习可以回答什么样的问题呢?我们来看看下面的例子:
  • 因果关系(causality)和概率图模型(probabilistic graphical models)问题:我们能否描述观察到的许多数据的根本原因?例如,如果我们有关于房价、污染、犯罪、地理位置、教育和工资的人口统计数据,我们能否简单地根据经验数据发现它们之间的关系?
  • 聚类(clustering)问题:没有标签的情况下,我们是否能给数据分类呢?比如,给定一组照片,我们能把它们分成风景照片、狗、婴儿、猫和山峰的照片吗?同样,给定一组用户的网页浏览记录,我们能否将具有相似行为的用户聚类吗?(因为拍的照片是随机的,今天突然拍山峰,拍了十来张,是否会自动生成山峰的分类?
  • 主成分分析(principal component analysis)问题:裁缝们已经开发出了一小部分参数,这些参数相当准确地描述了人体的形状,以适应衣服的需要。
  • 生成对抗性网络(generative adversarial networks):为我们提供一种合成数据的方法,甚至像图像和音频这样复杂的结构化数据。潜在的统计机制是检查真实和虚假数据是否相同的测试,它是无监督学习的另一个重要而令人兴奋的领域。

    强化学习:

  • 如果你对使用机器学习开发与环境交互并采取行动感兴趣,那么你最终可能会专注于强化学习(reinforcement learning)。 这可能包括应用到机器人、对话系统,甚至开发视频游戏的人工智能(AI)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值