一、简介
数据的维数:当每个样本的特征类别数量都是相同的时候,其特征向量是固定长度的,这个长度被称为数据的维数(dimensionality)。
目标函数/损失函数:在机器学习中,我们需要定义模型的优劣程度的度量,这个度量在大多数情况是“可优化”的,这被称之为目标函数(objective function)。 通常定义一个目标函数,并希望优化它到最低点。 因为越低越好,所以这些函数有时被称为损失函数(loss function,或cost function)。
过拟合:当一个模型在训练集上表现良好,但不能推广到测试集时,这个模型被称为过拟合(overfitting)的。
优化算法:当我们获得了一些数据源及其表示、一个模型和一个合适的损失函数,接下来就需要优化算法,它能够搜索出最佳参数,以最小化损失函数。 深度学习中,大多流行的优化算法通常基于一种基本方法–梯度下降(gradient descent)。
二、监督学习
监督学习(supervised learning):擅长在“给定输入特征”的情况下预测标签。 每个“特征-标签”对都称为一个样本(example)。 有时,即使标签是未知的,样本也可以指代输入特征。 目标是生成一个模型,能够将任何输入特征映射到标签(即预测)。
监督学习需要向模型提供巨大数据集:每个样本包含特征和相应标签值。
举一个具体的例子: 假设我们需要预测患者的心脏病是否会发作,那么观察结果“心脏病发作”或“心脏病没有发作”将是样本的标签。 输入特征可能是生命体征,如心率、舒张压和收缩压等。(标签即需要预测的数据)
2.1回归
回归(regression)是最简单的监督学习任务之一。
当标签取任意数值时,我们称之为回归问题,此时的目标是生成一个模型,使它的预测非常接近实际标签值。
回归是训练一个回归函数来输出一个数值;
2.2分类
分类问题希望模型能够预测样本属于哪个类别(category,正式称为类(class))。 例如,手写数字可能有10类,标签被设置为数字0~9。
最简单的分类问题是只有两类,这被称之为二项分类(binomial classification),此外还有多项分类。
例如,数据集可能由动物图像组成,标签可能是猫狗{猫,狗}两类。
分类是训练一个分类器来输出预测的类
2.3标记问题
学习预测不相互排斥的类别的问题称为多标签分类(multi-label classification)。
三、无监督学习
给定的数据集中无标签。需要模型自发学习其中的特征
主要是聚类
四、强化学习
在强化学习问题中,智能体(agent)在一系列的时间步骤上与环境交互。 在每个特定时间点,智能体从环境接收一些观察(observation),并且必须选择一个动作(action),然后通过某种机制(有时称为执行器)将其传输回环境,最后智能体从环境中获得奖励(reward)。 此后新一轮循环开始,智能体接收后续观察,并选择后续操作,依此类推。
请注意,强化学习的目标是产生一个好的策略(policy)。 强化学习智能体选择的“动作”受策略控制,即一个从环境观察映射到行动的功能。