动手学深度学习——引言

一、简介

        数据的维数:当每个样本的特征类别数量都是相同的时候,其特征向量是固定长度的,这个长度被称为数据的维数(dimensionality)。

        目标函数/损失函数:在机器学习中,我们需要定义模型的优劣程度的度量,这个度量在大多数情况是“可优化”的,这被称之为目标函数(objective function)。 通常定义一个目标函数,并希望优化它到最低点。 因为越低越好,所以这些函数有时被称为损失函数(loss function,或cost function)。

        过拟合:当一个模型在训练集上表现良好,但不能推广到测试集时,这个模型被称为过拟合(overfitting)的。

        优化算法:当我们获得了一些数据源及其表示、一个模型和一个合适的损失函数,接下来就需要优化算法,它能够搜索出最佳参数,以最小化损失函数。 深度学习中,大多流行的优化算法通常基于一种基本方法–梯度下降(gradient descent)。 

二、监督学习

        监督学习(supervised learning):擅长在“给定输入特征”的情况下预测标签。 每个“特征-标签”对都称为一个样本(example)。 有时,即使标签是未知的,样本也可以指代输入特征。 目标是生成一个模型,能够将任何输入特征映射到标签(即预测)。

        监督学习需要向模型提供巨大数据集:每个样本包含特征和相应标签值。

        举一个具体的例子: 假设我们需要预测患者的心脏病是否会发作,那么观察结果“心脏病发作”或“心脏病没有发作”将是样本的标签。 输入特征可能是生命体征,如心率、舒张压和收缩压等。(标签即需要预测的数据)

2.1回归

        回归(regression)是最简单的监督学习任务之一。

        当标签取任意数值时,我们称之为回归问题,此时的目标是生成一个模型,使它的预测非常接近实际标签值。

        回归是训练一个回归函数来输出一个数值;

2.2分类

        分类问题希望模型能够预测样本属于哪个类别(category,正式称为(class))。 例如,手写数字可能有10类,标签被设置为数字0~9。         

        最简单的分类问题是只有两类,这被称之为二项分类(binomial classification),此外还有多项分类。

        例如,数据集可能由动物图像组成,标签可能是猫狗{猫,狗}两类。

        分类是训练一个分类器来输出预测的类 

2.3标记问题

        学习预测不相互排斥的类别的问题称为多标签分类(multi-label classification)。

三、无监督学习

        给定的数据集中无标签。需要模型自发学习其中的特征

        主要是聚类

四、强化学习

        在强化学习问题中,智能体(agent)在一系列的时间步骤上与环境交互。 在每个特定时间点,智能体从环境接收一些观察(observation),并且必须选择一个动作(action),然后通过某种机制(有时称为执行器)将其传输回环境,最后智能体从环境中获得奖励(reward)。 此后新一轮循环开始,智能体接收后续观察,并选择后续操作,依此类推。

        请注意,强化学习的目标是产生一个好的策略(policy)。 强化学习智能体选择的“动作”受策略控制,即一个从环境观察映射到行动的功能。

  • 7
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值