数据分析 | 交叉验证

交叉验证

交叉验证(Cross-validation)主要用于建模应用中,例如PCRPLS回归建模中。在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和。

思想介绍

在使用训练集对参数进行训练的时候,经常会发现人们通常会将一整个训练集分为三个部分(比如mnist手写训练集)。一般分为:训练集(train_set),评估集(valid_set),测试集(test_set)这三个部分。这其实是为了保证训练效果而特意设置的。其中测试集很好理解,其实就是完全不参与训练的数据,仅仅用来观测测试效果的数据。而训练集和评估集则牵涉到下面的知识了。

因为在实际的训练中,训练的结果对于训练集的拟合程度通常还是挺好的(初始条件敏感),但是对于训练集之外的数据的拟合程度通常就不那么令人满意了。因此我们通常并不会把所有的数据集都拿来训练,而是分出一部分来(这一部分不参加训练)对训练集生成的参数进行测试,相对客观的判断这些参数对训练集之外的数据的符合程度。这种思想就称为交叉验证(Cross Validation) [1]  。

定义

交叉验证(Cross Validation),有的时候也称作循环估计(Rotation Estimation),是一种统计学上将数据样本切割成较小子集的实用方法,该理论是由Seymour Geisser提出的。

在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和。这个过程一直进行,直到所有的样本都被预报了一次而且仅被预报一次。把每个样本的预报误差平方加和,称为PRESS(predicted Error Sum of Squares)。

基本思想

交叉验证的基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(train set),另一部分做为验证集(validation set or test set),首先用训练集对分类器进行训练,再利用验证集来测试训练得到的模型(model),以此来做为评价分类器的性能指标。

目的

用交叉验证的目的是为了得到可靠稳定的模型。在建立PCR PLS 模型时,一个很重要的因素是取多少个主成分的问题。用cross validation 校验每个主成分下的PRESS值,选择PRESS值小的主成分数。或PRESS值不再变小时的主成分数。

常用的精度测试方法主要是交叉验证,例如10折交叉验证(10-fold cross validation),将数据集分成十份,轮流将其中9份做训练1份做验证,10次的结果的均值作为对算法精度的估计,一般还需要进行多次10折交叉验证求均值,例如:10次10折交叉验证,以求更精确一点。

交叉验证有时也称为交叉比对,如:10折交叉比对 [2]  。

常见形式

Holdout 验证

常识来说,Holdout 验证并非一种交叉验证,因为数据并没有交叉使用。 随机从最初的样本中选出部分,形成交叉验证数据,而剩余的就当做训练数据。 一般来说,少于原本样本三分之一的数据被选做验证数据。

K-fold cross-validation

K折交叉验证,初始采样分割成K个子样本,一个单独的子样本被保留作为验证模型的数据,其他K-1个样本用来训练。交叉验证重复K次,每个子样本验证一次,平均K次的结果或者使用其它结合方式,最终得到一个单一估测。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次,10折交叉验证是最常用的 [3]  。

留一验证

正如名称所建议, 留一验证(LOOCV)意指只使用原本样本中的一项来当做验证资料, 而剩余的则留下来当做训练资料。 这个步骤一直持续到每个样本都被当做一次验证资料。 事实上,这等同于和K-fold 交叉验证是一样的,其中K为原本样本个数。 在某些情况下是存在有效率的演算法,如使用kernel regression 和Tikhonov regularization。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: k折交叉验证(k-fold cross-validation)是一种常用的模型评估方法,在机器学习数据分析中非常常见。它的主要目的是评估和比较不同模型的性能,同时也可以用于选择模型的参数。 k折交叉验证的基本思想是将原始数据集分成k个大小相等的子集。然后每次从这些子集中将一个作为测试集,剩下的k-1个作为训练集,这样可以得到k个模型的性能评估。最后将这k个模型的性能评估的均值作为整个模型的性能评估。 在Matlab中,可以使用`cvpartition`函数来实现k折交叉验证。该函数可以根据指定的分组方式将数据集分成k个子集,并输出一个`cvpartition`对象,其中包含了每个样本属于哪个子集的信息。我们可以使用这个对象的方法来获取每个子集的训练集和测试集的索引。 具体使用的步骤如下: 1. 将原始数据集根据`cvpartition`函数划分成k个子集。 2. 使用循环遍历每个子集,每次选择一个子集作为测试集,剩下的k-1个子集合并成一个训练集。 3. 在训练集上训练模型,并在测试集上进行性能评估。 4. 重复步骤2和步骤3,直到遍历完所有的子集。 5. 计算k个模型性能评估的均值,作为整个模型的性能评估。 通过k折交叉验证可以更全面地评估模型的性能,避免了对单一训练集和测试集的依赖。同时,它还可以提供对模型的稳定性和一致性的估计,帮助我们更好地选择最佳模型和参数设置。 ### 回答2: k折交叉验证是一种常用的机器学习中的模型评估方法,可以有效地评估模型的性能和准确性。在Matlab中,可以采用以下步骤进行k折交叉验证: 1. 首先,准备好你的数据集。将数据按照特征和标签分开,并确保数据集的样本数和标签数对应一致。 2. 根据需要选择合适的机器学习算法,如支持向量机(SVM)、决策树(Decision Tree)等。 3. 使用Matlab的交叉验证函数crossvalind将数据集划分为k个子集。crossvalind函数可以根据指定的数据集规模和k值将数据集分成k个互斥的部分。 4. 编写一个循环,依次选取k-1个子集作为训练集,剩下的一个子集作为测试集。 5. 在每次循环中,使用训练集训练机器学习模型,并使用测试集对模型进行评估。 6. 记录每次评估的结果,如准确率、精确率、召回率等指标。 7. 循环结束后,计算并汇总所有测试集的评估结果,得到最终的模型性能评估。 通过k折交叉验证,可以更准确地评估机器学习模型在不同数据集上的性能表现,避免对特定数据集过拟合的问题。在使用Matlab进行k折交叉验证时,可以根据具体需求选择不同的指标和机器学习算法,根据交叉验证结果进行模型选择和优化,提高模型的泛化能力和预测准确性。 ### 回答3: k折交叉验证(k-fold cross-validation)是一种常用的模型评估方法,旨在评估机器学习模型的性能和泛化能力。下面我将用300字回答如何在Matlab中进行k折交叉验证。 在Matlab中,我们可以使用“cvpartition”函数来实现k折交叉验证。首先,我们需要将数据集划分为k个不重叠的子集,其中k-1个子集作为训练集,剩下的1个子集作为测试集。针对每个子集,我们会训练一个模型并对其进行评估。 以下是一个实现k折交叉验证的示例代码: ```matlab % 加载数据集 load('data.mat'); X = data(:, 1:end-1); % 特征矩阵 Y = data(:, end); % 目标变量 % 设置k值 k = 10; % 创建cvpartition对象 cv = cvpartition(Y, 'KFold', k); % 遍历每个折 for i = 1:k % 获取训练集和测试集的索引 trainIdx = cv.training(i); testIdx = cv.test(i); % 从索引中获取训练集和测试集 XTrain = X(trainIdx, :); YTrain = Y(trainIdx); XTest = X(testIdx, :); YTest = Y(testIdx); % 在训练集上训练模型(例如,使用SVM) model = fitcsvm(XTrain, YTrain); % 在测试集上评估模型 YPred = predict(model, XTest); accuracy = sum(YPred == YTest) / numel(YTest); disp(['Fold ', num2str(i), ' Accuracy: ', num2str(accuracy)]); end ``` 在上述代码中,我们首先加载数据集,然后通过将目标变量Y和k值传递给“cvpartition”函数创建一个cvpartition对象。接下来,使用for循环遍历每个折,获取相应的训练集和测试集的索引,使用训练集训练模型(这里以支持向量机(SVM)为例),并在测试集上对模型进行评估。最后,输出每个折的准确率。 这样,通过使用Matlab中的“cvpartition”函数和适当的训练和评估代码,我们就可以实现k折交叉验证来评估机器学习模型的性能和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值