周志华《机器学习》西瓜书第一章绪论第一部分

第一章  绪论

1.1 引言 

1.机器学习通过计算手段改善自身性能的学科,经验数据形式存在。

2.机器学习是计算机利用数据产生模型"的算法,即学习算法(learing algorithm)。即建模方法。

3.Mitchell 1997年对机器学习给出了形式化的定义:设用P来评估计算机程序在某任务T中的性能,若程序通过利用经验ET中获得了性能的改善,那么我们就说关于TP,该程序对E进行了学习。

4.计算机科学=算法   机器学习=学习算法=建模方法

1.2基本术语

1.机器学习首先要有数据

示例(instance)或样本(sample:关于一个事件或对象(西瓜)的描述。

属性(attribute)或特征(feature:反映事件或对象某方面的表现或性质的事项,例如色泽”“根蒂敲声

属性值(attribute value):属性的取值,如青绿”“乌黑等。

属性空间(attribute space:属性张成的空间。

样本空间(sample space=输入空间:例如我们把色泽”“根蒂”“敲声作为三维坐标轴,则把他们张成的空间一个描述西瓜的三维空间,每个西瓜都可以在这个空间中找到自己的坐标。

特征向量(feature vector):空间中的每个点对应一个向量,我们也把一个示例称为一个特征向量。

数据集(data set:样本集合

 

 

 


学习(learning)或训练(training:从数据中学得模型的过程。这个过程通过执行某个学习算法来实现的。

训练数据(training data:训练过程中使用到的数据叫做训练数据。

训练样本(training sample:训练数据中的每个样本叫做训练样本。

训练集(training set:训练样本组成的集合。

假设(hypothesis):学习模型对应关于数据的某种潜在的规律叫做假设

真相或真实(ground truth:这种潜在的规律本身叫做真相或真实。

模型:学习器(learner,可以看作学习算法在给定数据和参数空间上的实例化。

训练样本也称为训练示例(training instance),或训练例.

学习算法通常需要参数设置,使用不同的参数或训练数据,将产生不同的效果。

预测(prediction:需要知道训练样本的结果信息,比如说是好瓜

标记(label:这里的好瓜就是标记。

样例(example:带有标记的示例

 



分类(classification:如果我们是预测的离散的值,例如,“好瓜”“坏瓜”

只涉及两种类别的“二分类”(binary classification),通常一个叫做“正类”(positive class,另一个叫做“反类”(negative class,涉及多个类叫做“多分类”(multi-class classification)任务。

回归(regression:如果我们预测的值是连续的值,例如西瓜的成熟度,0.95,0.37等。


 

测试(testing:学得模型后,使用其进行预测的过程称为“测试”testing,被预测的样本称为“测试样本”(testing sample),例如学得f后,对于测试例x,可以得到预测标记y=f(x).

聚类(clustering:将训练集中的西瓜分成若干组,每组成为一个“”(cluster),这些自动形成的簇可以对应一些潜在的概念划分,例如“浅色瓜”“神色瓜”,“本地瓜”“外地瓜”,这些学习能够有助于我们了解数据的内部规律,能更深入分析数据建立基础。

     需要注意的是,在聚类学习中,我们对于“浅色瓜”“本地瓜”这样的概念,我们事先并不知道,而且在学习的过程中使用的训练数据样本通常不拥有标记信息

监督学习(supervised learning)和无监督学习(unsupervised learning:我们根据训练数据是否拥有标记信息,学习任务可以大致分成这两类,分类和回归是前者的代表,聚类是后者的代表。他们又称为“有导师学习”和“无导师学习”。

泛化能力(generalization):机器学习的目标是使学得的模型很好的适应”新样本”,而不是仅仅在训练样本上工作的很好,即便是对于聚类这种无监督学习任务,我们也希望得到的簇划分能够适用于没在训练集中的样本,学得的模型适用于新的样本,我们叫做“泛化能力”,具有较强泛化能力的模型能够很好的适用于整个样本空间。

     尽管训练集只是样本空间中很小的采样,我们仍然希望它能够反映出样本空间的特性,否则很难期望它在训练集上学得的模型能在整个样本空间上都工作的很好。

     通常我们认为全部的样本满足一个未知的”分布”(distribution),我们所获得的每个样本都是独立的从这个分布上采样获得的,即“独立同分布”(independent  and identically distributed 简称i.i.d),通常训练样本越多,我们越可能得到泛化能力强的模型。

 

1. 什么是泛化能力?泛化能力和过拟合之间有什么关系? 泛化能力是指模型在新的、未见过的数据上的表现能力。模型的泛化能力与其对训练数据的拟合程度有关,通常来说,过拟合的模型泛化能力较差。 2. 什么是交叉验证?交叉验证的作用是什么? 交叉验证是一种通过将数据集分成若干个子集来进行模型评估的方法。具体地,将数据集分成k个子集,每个子集都轮流作为测试集,其余子集作为训练集,重复k次,最终得到k个模型的评估结果的平均值。交叉验证的作用是提高模型评估的可靠性和泛化能力。 3. 留出法、k折交叉验证和留一法的区别是什么?它们各自适用于什么情况? 留出法是将数据集分成两部分,一部分作为训练集,另一部分作为测试集。留出法适用于数据集较大的情况。 k折交叉验证是将数据集分成k个子集,每个子集都轮流作为测试集,其余子集作为训练集,重复k次,最终得到k个模型的评估结果的平均值。k折交叉验证适用于数据集较小的情况。 留一法是k折交叉验证的一种特殊情况,即将数据集分成n个子集,每个子集都作为测试集,其余子集作为训练集,重复n次。留一法适用于数据集较小且样本数较少的情况。 4. 为什么要对数据进行预处理?数据预处理的方法有哪些? 数据预处理可以提高模型的表现,并且可以减少过拟合的风险。数据预处理的方法包括:标准化、归一化、缺失值填充、特征选择、特征降维等。 5. 什么是特征选择?特征选择的方法有哪些? 特征选择是指从所有特征中选择出对模型预测结果有重要贡献的特征。特征选择的方法包括:过滤式方法、包裹式方法和嵌入式方法。其中,过滤式方法是基于特征间的关系进行特征选择,包裹式方法是基于模型的性能进行特征选择,嵌入式方法是将特征选择嵌入到模型训练中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

无敌三角猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值