机器学习的一般分类为:监督学习、无监督学习、半监督学习和强化学习。下面分别对其进行简要的介绍。
监督学习
监督学习是从有标签的数据中学习统计规律,即找到一个映射函数来映射输入变量(x)和输出变量(y)。
监督学习主要包括分类和回归两大类问题,两者的相同之处在于都是对输入数据进行预测,但不同之处是,分类问题输出的是离散型变量(或称定性输出),回归问题输出的是连续性变量(或称定量输出)。
比较经典的算法如下:
- 支持向量机(SVM):
当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器;
当训练样本近似线性可分时,通过软间隔最大化,学习一个线性分类器;
当训练样本线性不可分时,通过核函数(核技巧)和软间隔最大化,学习一个非线性模型。 - 决策数:一个树结构(可以是二叉树或非二叉树),其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。
- 贝叶斯分类:利用贝叶斯估计求解在某条件下各个类别出现的概率,其中概率最大的即是所属的类别。
- 线性、非线性回归等
无监督学习
无监督学习是从一堆数据中学习其内在统计规律或内在结构,从而实现对数据的聚类、降维、概率估计等。比较经典的算法如下:
- K均值聚类:制定分组的数量为K,自动进行分组。
- 层次聚类:层次聚类就是一层一层地进行聚类。既可以由下向上对小的类别进行聚合(凝聚法),也可以由上向下对大的类别进行分割(分裂法)
- 奇异值分解(SVD):用最大的k个的奇异值和对应的左右奇异向量来近似描述矩阵。左、右奇异矩阵分别可以用于行数和列数的压缩。
- 主成分分析(PCA):把多指标转化为少数几个综合指标,从而降低数据维度。
半监督学习
半监督学习使用大量的未标记数据,以及同时使用标记数据,学习其内在统计规律。大多数半监督学习算法是无监督式和监督式算法的结合。
自监督学习
自监督学习和无监督学习的数据本身均无标注信息,但不同之处在于:自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。在计算机视觉和自然语言处理的任务中,目前广泛采用“预训练+微调”的策略,在模型预训练时,自监督学习的应用非常广泛。
自监督学习中辅助任务的构建,通常基于以下三种方法:
(1)基于上下文信息;
(2)基于时序信息;
(3)基于对比信息。
强化学习
强化学习是智能体(Agent)以“试错”的方式进行学习,通过与环境进行交互获得的奖赏指导行为,目标是使智能体获得最大的奖赏,用于描述和解决智能体在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。
具体来说,智能体在每一步(或时刻)t,从环境中观测到一个状态s和一个奖励r,采取一个动作a。环境根据采取的动作决定下一步(或时刻)t+1的状态s和奖励r。需要学习的策略表示为给定状态下采取的动作,目标不是短期奖励的最大化,而是长期累积奖励的最大化。
参考文献
机器学习的分类
奇异值分解(SVD)
支持向量机(SVM)
极大似然估计(MLE)、最大后验概率估计(MAP)和贝叶斯估计(BE)