一、基本概念
1.监督学习
- 定义:从标注数据中学习输入到输出的映射的统计规律。
- 用处:解决①回归问题(输入变量和输出变量均为连续变量)②分类问题(输出变量为有限个离散变量)③标注问题(输入输出变量均为变量序列,如情感分析问题)。
- 假设空间:监督学习的模型可以是概率模型或非概率模型,由条件概率分布P(Y|X)或Y=F(X)表示。
2.无监督学习
- 定义:从无标注数据中学习预测模型的机器学习问题。
- 用处:可以实现对数据的聚类、降维或概率估计
- 假设空间:要学习的模型为z=g(x),条件概率分布为p(z|x)或p(x|z),其中x是输入,z是输出
3.强化学习
- 定义:是指在智能系统在与环境的连续互动中学习最优行为策略的机器学习问题。
- 分类:分为无模型的方法(基于策略的、基于价值的)、有模型的方法(学习马尔可夫决策)
- 示例:智能系统与环境的互动:在每一步中,智能系统从环境中观测到一个状态与一个奖励,采取一个动作;环境根据智能系统选择的动作,决定下一步的状态和奖励。智能系统的目标不是短期奖励的最大化,而是长期累积奖励的最大化。
4.半监督学习
- 定义:是指利用未标记数据和标记数据学习预测模型的机器学习问题。
- 主动学习:找出对学习最有帮助的实例让教师标注,以最小的代价标注,达到最好的结果。
- 常常和主动学习一起使用。
5.按照模型分类
- 概率模型和非概率模型
(在监督学习中,概率模型是生成模型,非概率模型是判别模型,二者可以相互转化) - 线性模型和非线性模型
(深度学习就是复杂的非线性模型的学习) - 参数化模型和非参数化模型
(非参数化模型参数维度不固定或者无穷大,随着训练数据量的增加而不断增大)
6.按算法分类
- 在线学习
定义:每次接受一个样本,进行预测,之后学习模型,并不断重复改操作的机器学习。 - 批量学习
一次性接受所有数据,学习模型,之后进行预测。
7.按技巧分类
-
贝叶斯学习
又称为贝叶斯推理,主要思想:在概率模型的学习和推理中,利用贝叶斯定理,计算在给定数据条件下模型的条件概率,即后验概率,并应用这个原理进行模型的估计,以及对数据的预测。 -
核方法
定义:将线性模型扩展到非线性模型,直接做法是显式的定义从输入空间到特征空间的映射,在特征空间中进行内积运算。(关键:找到对应映射的核方法) -
统计学习方法的三要素
-
模型: 在监督学习过程中,模型就是所要学习的条件概率分布和决策函数。
-
策略:考虑用什么样的准则学习从而来选择最优模型。引入两个概念,期望风险:模型关于联合分布的期望损失;经验风险:模型关于训练样本集的平均损失。当N容量趋于无穷时,经验风险趋近于期望风险。当经验函数式子被确定时,就需要考虑经验风险最小化的问题。经验风险最小化就是求解最优的模型。在样本量足够大时,经验风险最小化能够很好的解决问题。但是在样本量不够大时,往往需要结构风险最小化方法来防止过拟合。
-
算法:考虑用什么样的计算方法求解模型。
补充
-
过拟合:是指学习时选择的模型所包含的参数过多,以至于对已知数据能很好的预测,但是对未知数据预测很差的现象。
-
奥卡姆剃刀原理:选择能够很好地解释已知数据并且十分简单的模型才是最好的模型。
-
现实中通常采用测试误差来评价学习方法的泛化能力。
写于6.3号和6.4号